Oeasy 发表于 2023-4-2 19:25:43

将权威词典作为语料训练一个类 ChatGPT [20230402]

本帖最后由 Oeasy 于 2023-4-2 19:31 编辑


参考:[词典讨论] ChatGPT 用作词典 https://pdawiki.com/forum/forum.php?mod=viewthread&tid=48326

2023 Q1,是惊天动地的 3 个月。

过去几个月时间,我使用 ChatGPT 的时间远远多于 Google,远远多于 GoldenDict。或许,一个新时代已经悄然来临?

ChatGPT 衍生应用很多,比如:
- ChatPDF - Chat with any PDF! https://www.chatpdf.com/

这里开个脑洞,将权威词典(比如 xx、xx、xx)作为语料,输入大语言模型,训练出一个全知全能的词典之神,岂不美哉。{:4_104:}

现在给出足够的、合理的提示,ChatGPT(OpenAI 的 API)是可以生成词典词条的。

https://img.ducidian.com/imgs/2023/04/96a1275d81cfdfda.png

Shiny2020 发表于 2023-4-3 14:58:38

GTP有时候会胡编乱造,你说它胡编,它立马道歉,然后还接着胡编。

题目自拟闯天涯 发表于 2023-4-3 20:38:47

已经把很多PDF喂进去了,https://www.bilibili.com/read/cv22589352
参考我写的这个吧。

jonah_w 发表于 2023-4-4 13:38:16

chatgpt 胡编乱造是个问题… 如果一定要用chatgpt编写的词典,那一定需要有一双对错误过敏的眼睛。
目前我主要用来让它reword和翻译。经常有惊喜

klwo2 发表于 2023-4-6 15:49:33

ChatGPT原本就自带权威词典了,不用你喂

反倒是:
1)它挖坑的时候你要小心,别被误导
2)中文的部分还不够好

klwo2 发表于 2023-4-6 16:02:29

来看看ChatGPT理解单词的实力:



很棒对不对?

请它解释句子就不太行了。我试了新牛津在线的一个例句,就平白无故出现了「暗示」



而且它对句意的解释是不准的,这句的中心是「Silence」,它受上文「nuance」影响,一直在解释「nuance」

我们把这句话的原书上下文找来,就知道了:



klwo2 发表于 2023-4-6 16:22:11

再来个潜在误导的例子,从论坛里VDex例句mdx里选的:



这怎么就一口咬定是篮球了呢?原文「Lightning Rookie Andrei Vasilevskiy Steps Up Confidently」里谈的其实是冰球{:4_96:}

klwo2 发表于 2023-4-6 16:33:39

再舉一個中文的例子



我不曉得餵它一些漢語詞典會不會解決問題,目前它的中文有點問題{:4_109:}

每天吃肉 发表于 2023-4-6 18:28:34

哈,看了上面的例子,我感觉这个chatgpt就是个两面派
页: [1]
查看完整版本: 将权威词典作为语料训练一个类 ChatGPT [20230402]