将权威词典作为语料训练一个类 ChatGPT [20230402]
本帖最后由 Oeasy 于 2023-4-2 19:31 编辑参考:[词典讨论] ChatGPT 用作词典 https://pdawiki.com/forum/forum.php?mod=viewthread&tid=48326
2023 Q1,是惊天动地的 3 个月。
过去几个月时间,我使用 ChatGPT 的时间远远多于 Google,远远多于 GoldenDict。或许,一个新时代已经悄然来临?
ChatGPT 衍生应用很多,比如:
- ChatPDF - Chat with any PDF! https://www.chatpdf.com/
这里开个脑洞,将权威词典(比如 xx、xx、xx)作为语料,输入大语言模型,训练出一个全知全能的词典之神,岂不美哉。{:4_104:}
现在给出足够的、合理的提示,ChatGPT(OpenAI 的 API)是可以生成词典词条的。
https://img.ducidian.com/imgs/2023/04/96a1275d81cfdfda.png
GTP有时候会胡编乱造,你说它胡编,它立马道歉,然后还接着胡编。 已经把很多PDF喂进去了,https://www.bilibili.com/read/cv22589352
参考我写的这个吧。 chatgpt 胡编乱造是个问题… 如果一定要用chatgpt编写的词典,那一定需要有一双对错误过敏的眼睛。
目前我主要用来让它reword和翻译。经常有惊喜 ChatGPT原本就自带权威词典了,不用你喂
反倒是:
1)它挖坑的时候你要小心,别被误导
2)中文的部分还不够好 来看看ChatGPT理解单词的实力:
很棒对不对?
请它解释句子就不太行了。我试了新牛津在线的一个例句,就平白无故出现了「暗示」
而且它对句意的解释是不准的,这句的中心是「Silence」,它受上文「nuance」影响,一直在解释「nuance」
我们把这句话的原书上下文找来,就知道了:
再来个潜在误导的例子,从论坛里VDex例句mdx里选的:
这怎么就一口咬定是篮球了呢?原文「Lightning Rookie Andrei Vasilevskiy Steps Up Confidently」里谈的其实是冰球{:4_96:}
再舉一個中文的例子
我不曉得餵它一些漢語詞典會不會解決問題,目前它的中文有點問題{:4_109:} 哈,看了上面的例子,我感觉这个chatgpt就是个两面派
页:
[1]