GPT翻车?AI也要分文理科?
这几天发布的GPT-5引起了渲染大波,被Open AI寄予厚望的 GPT-5,上线当天,就出现了技术故障、低调用频率、图表翻车、旧版本下架等一连串事故和争议,这让很多人的期待变成了失望。

Open AI本来计划把GPT-5作为 Open AI 的下一次颠覆式飞跃的基石,现在也要暂时打一个问号。
GPT-5其中的一个问题就是太过于诚实了。为了降低幻觉率,GPT-5采用了更保守的回答策略。问它不知道的事情,他更可能诚实的回答“不知道”,而不是像之前那样胡编乱造一个看似合理但实际完全胡扯的答案出来。
但这种诚实也带来了新的问题:需要情感需求的用户强烈抱怨。
要知道很多人把AI当做情绪价值的来源,之前你跟它抱怨最近变胖了,它会安慰你:体重是身体自然的反应,并不能定义你的可爱或价值,适度的体重增加还能增加免疫力哦。
而现在的诚实就可能说:那我们一起建立一个减肥计划吧。
这情绪价值的差距一下子就拉开了。

还有另一个问题就是,写作水平一下子差了很多,很多人觉得GPT-5写出的句子没有以前那么“灵性”了。
这事儿其实戳中了AI的一个核心矛盾:一个AI模型很难达到不同人群或不同场景对AI的需求的要求。
比如工业场景或商业场景中,AI出错的成本太高了。
一条生产线停一分钟,可能损失几万块;一个零件漏检,装到手机里可能引发投诉,甚至召回。所以工业里的AI,最需要的就是“诚实和稳当”——今天检测的标准和昨天一样,明天和今天一样。

而科研或生产场景中,最重要的也是靠谱。
之前GPT-3的时候,存在有一个很大的问题,就是它会编造参考文献和资料来源。并且会把一些错误的信息信誓旦旦的说成真的。
这就让AI变成了鸡肋,说是能提高效率,但做出来的东西都是错的,还要手动去核实一遍,效率反而可能更慢了。
现在这种现象减少了,但也没有完全解决。这也是Open AI为什么要把GPT-5调节的更“诚实”的原因。
而写作或情感陪伴领域,需要的更多的是飞扬的灵感和一定程度上“撒谎”的能力,这刚好和前面的需求是相反的。
有没有这样一种感觉,AI似乎也要分文理科?

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧~谢谢你看我的文章,我们,下次再见。
参考文章:
公众号:
数字生命卡兹克 写在GPT-5风波之后:为什么AI的智商和情商不可兼得?
差评 X.PIN GPT-5很强,但也很无趣。图片源自网络
版权声明:
作者:dingding
链接:https://www.techfm.club/p/224305.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。
共有 0 条评论