MIT 新研究指出 AI 不懂“no”,逻辑推理缺陷导致否定词成“盲区”
GoodNav 5月22日消息,麻省理工学院(MIT)最新研究揭示了人工智能(AI)在理解否定词(如“no”和“not”)方面的不足,这在医疗等关键领域可能带来严重风险。
尽管AI在疾病诊断、诗歌创作和自动驾驶等方面取得了显著进展,但其对否定信息的理解仍然存在缺陷。
由MIT博士生Kumail Alhamoud带领的研究团队,联合OpenAI和牛津大学,发现ChatGPT、Gemini和Llama等主流模型在处理否定语句时,常常默认肯定关联,而忽略了否定语义。
研究指出,这种缺陷在医疗领域尤其危险。例如,AI可能将“no fracture”(无骨折)或“not enlarged”(未扩大)错误理解为肯定,造成严重后果。
研究报告认为,问题并非数据不足,而是AI的训练方式存在根本缺陷。斯坦福大学深度学习兼职教授Kian Katanforoosh指出,大多数语言模型依赖于模式识别而非逻辑推理。
这导致AI在处理包含否定词的语句(如“not good”)时,容易受到积极词语的影响,做出错误判断。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...