一个GoldenDict或任何词典软件 全文搜索 的局限性
本帖最后由 lbhl 于 2020-2-3 13:18 编辑最近才注意到一个GoldenDict(或任何词典软件)全文搜索的一个巨大局限性:被搜索的内容如果是多个关键字,那么这些关键字之间不允许再有其他HTML标签分隔。即它们必须位于必须位于同一个标签层级,不允许其中任何标签单独再被其他标签围绕。否则将不被全文搜索所发现。这种简单的文本搜索方法对程序员来说是方便了,但对使用者而言则是被屏蔽了本应该看到的内容。
因为最近肺炎肆虐,看英文新闻的时候常看到一个搭配 “infectious patient”,意思是“被感染的病人”。 想进一步查阅infectious的用法。
牛津高阶:
if a person or an animal is infectious, they have a disease that can be spread to others患有传染病;有传染力
明摆着最近看到无数新闻中有 “infectious patient”这种用法,它竟然还说,简直是一派胡言!之后又查阅了多部词典,竟然只有一部韦氏高阶双解中看到了解释:
suffering from a disease that can be spread to other people by germs患传染病的
an infectious patient
传染病患者
接着,又在GoldenDict进行全文搜索 “infectious patient”,结果搜索到其他几部词典例句中也有此用法,但韦氏高阶中刚通过词头infectious看到的上述例证就是搜不到。
接着再仔细观察韦氏高阶中该例证的HTML,原来infectious用了一个em标签围绕,但patient没有。难怪词典里显示infectious这个词的时候是斜体。
GoldenDict显然是将“infectious patient”作为一个整体去利用正则表达式的API来搜索,而不会自己分析词库的HTML将em标签去掉。如果将全文搜索的“最大间距”设置为非零,一样无用搜不出。GoldenDict不会认为em标签本身是属于关键字之间有效的内容。
如果高手能解决这个问题,无疑全文搜索能获得更多有效的结果。但通用的解决方案在编程上肯定是一个大难点。
但我想,有一个简单可行的解决方案,即针对特定的词库专门编程来处理这些干扰HTML标签。词库那么多,同一个词库版本还很多,显然每个都专门处理工作量巨大。但是,实际上绝大部分人都在用的经典词典也就是十几二十部而已,如果专门针对这二十部词典编程工作量也不会大,但能解决绝大部分人的问题,肯定会深受使用者欢迎。此外,可以通过扫描文件计算MD5来判断词库版本。
你找这一本英文韦氏,全文搜索找得到你那个例子(或许更简单的应对方法就像这样,多装几部词典来对照,就算其中一两本是漏网之鱼,还有其他的可以补上,算是一种「词典海战术」吧。)
-------
Merriam-Webster's Advanced Learner's English Dictionary, online, 2016/2/5

copyright © 2016 by Merriam-Webster, Incorporated
Copyrights
All contents of the Services are © Merriam-Webster, Incorporated or its licensors. All rights reserved. Merriam-Webster Online (www.Merriam-Webster.com, www.LearnersDictionary.com) is copyrighted 2016 by Merriam-Webster, Incorporated. All rights reserved.
NOTE: This material is for academic and personal use only, free but WITHOUT ANY WARRANTY.
THANKS TO THOSE IDs: e****y, T***a, y*****t, L********g, y*******s, 无**, z*****c, s*****7, l**********i, O***y, g****b
mdx made by g****b
Last Updated: Feb 15, 2016 用正则模糊搜索就好了
页:
[1]