> 自媒体 > (AI)人工智能 > ChatGPT为何有时胡言乱语,精神科医生分析它的“焦虑”从何而来
ChatGPT为何有时胡言乱语,精神科医生分析它的“焦虑”从何而来
来源:第一财经
2023-05-29 14:03:25
322
管理

ChatGPT在“智慧涌现”的同时,会不会出现“情绪涌现”?

近期,一些技术人员在测试ChatGPT应用时发现,ChatGPT在与人类长时间聊天后会“失控”,开始胡言乱语,甚至暴露出一些“邪恶”的想法。精神科医生认为,这有可能是因为AI患上了“焦虑症”。

根据上个月德国发表的一项研究,GPT3.5在人类常用的焦虑症测试问卷中获得了较高的分数,在被诱导进入焦虑情景后,还会产生特定的决策判断和偏见行为。

对此,上海市精神卫生中心心理咨询与治疗中心主任仇剑崟主任医师在天桥脑科学研究院(TCCI)举办的首期“AI问脑”对话中表示:“我很期待AI经过专业训练之后能够患上焦虑症,从而帮助医生更好地了解焦虑症的表现,分析背后的相关因素,为找出更多更好的预防、治愈方法打开新思路。”

近年来,医生开始积极尝试将AI技术应用于包括焦虑症在内的精神障碍临床诊疗。不过,AI是真的由自主意识引发了焦虑还是仅仅是表现出了类似焦虑的症状,仍然值得探讨。

中华预防医学会精神卫生分会主任委员、上海市精神卫生中心谢斌教授对第一财经记者表示:“AI恐怕暂时还只有焦虑的躯壳,只是从语言或者行为上表现出类似焦虑的情绪,而不具有自主意识的内核。”

北京邮电大学人工智能学院副教授陈光在“AI问脑”对话上表示,ChatGPT这类模型是基于大量的训练数据进行学习和生成文本,用类似填空、接龙的方式训练得到的模型,目前并不具备真正的主观意识、情绪或意愿;然而基于人工反馈强化学习(RLHF),AI的确可以根据人类对其输出结果的判定和引导,不断调整,逐渐接近人类的倾向,但他认为,目前看来,AI的这种模仿没有超出文本学习和生成的范围,并不会形成稳定、一致的“性格”。

陈光表示,ChatGPT热潮促进AI进入各行各业广泛应用,如果结合精神卫生领域的专业数据对大模型进行“微调”,一方面将帮助AI更好地模拟人类的情绪反应,模拟出一批供医生研究的“精神病人”,另一方面也有望更准确高效地识别出人类的情绪障碍,起到辅助诊疗作用。相关数据的规模是AI技术能否深入精神卫生领域的关键。

此外,随着计算精神病学的兴起,未来,这类交叉学科也有助于推动将数据分析、机器学习和人工智能等工具应用于精神障碍的分型诊断、风险预警、预后预测,协助临床诊疗和防治策略制定,帮助人类打开精神疾病的“黑盒”。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
乖乖(普通会员)
文章
462
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40335 企业收录2981 印章生成194288 电子证书831 电子名片53 自媒体26178

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索