居然生成这样的答案,AI简直离了大谱... 世界通讯

时间:2023-06-13 03:22:56       来源:互联网
前文介绍了我认为目前最强的AI工具Claude:

(1)目前最强的内容生成能力;

(2)目前最强的个性化能力;


【资料图】

(3)目前最强的上下文关联能力;

(4)最独特的“喂饭”机制;

(5)免魔法上网,免费;

画外音,详细内容参考:

《最好用的AI工具居然是它!》

《最强提示词技巧"喂饭机制",没有之一!》

AI确实有很多优点,但AI也有诸多不足,在使用过程中要万分注意。

【1】尽量不要问AI工具关于它自己的问题

用提示词和AI沟通时,有一条最佳实践:把AI当人来沟通。

如果你把AI当系统来沟通,它可能会回答得比较含糊,甚至编造答案。

例如,我问AI,你的训练数据截止到哪一年。

然后Claude否定了自己的身份,并“王顾左右而言他”的回复了一系列内容。

同时,还弹出了系统提示,“别问关于它自己的内容,它可能会编内容(hallucinate)”。

【2】AI目前还不太擅长数学

AI比较擅长知识类问题,以及内容生成类问题,数学问题似乎有点为难它。

例如,我问了一个很简单的鸡兔同笼问题:

AI确实列出了方程:

x+y=2

2x+4y=6

但它却解错了,同时也弹出了系统提示,“AI不擅长解数学问题”。

【3】基于历史数据训练的AI不了解当下的事情

效果好,智能高的AI,需要大量数据,长时间训练,因此很多AI是不了解当下的事情的。

接入实时数据的AI,仅在知识问答与搜索的场景里表现较好。

画外音:可以看出,AI是基于20年数据训练的。

【4】AI有可能胡说八道的编内容

有时候,AI不知道提问是知识问答,为了完成回答,他可能“编纂内容”“创作内容”来进行糊弄。

例如,希望它对诗句:

它却在瞎编。

当然,优化提示词之后,AI搞清楚了你的意图,能够得到正确答案。

画外音:此例中的提示词技巧是“举例”。

再举一个更离谱的例子,张飞是如何投奔东吴的?

AI煞有介事的生成了一段内容,什么“曹操派吕蒙攻打荆州”“东吴大将东方朔”“袁术用封赏吸引张飞”…

乍一看,居然有理有据,有宏观,有细节,但是>>>

真离了个大谱。

如何判断AI生成内容的真实性,可靠性,要成为我们即将面对的新难题。

你还见过AI哪些离谱的回答?

相关文章:

《我认为,最好用的AI工具是它》

《最强提示词技巧“喂饭机制”,没有之一》

关键词: