凤凰网科技讯 8月9日,据CNN报道,OpenAI近日表示,其新推出的ChatGPT语音模式可能导致用户产生过度的依赖,引发“情感依赖”问题。这一警告出现在该公司上周发布的语言模型安全审查的报告中。
ChatGPT的先进语音模式听起来不仅流利自然,而且能模仿人类对话中的各种声音,如笑声或“嗯”。它还能根据说话者的语气判断其情绪状态。有时候,用户甚至会觉得它比朋友还懂自己。
今年早些时候,在推出这一功能后,OpenAI立即被人们与2013年电影《Her》中的AI数字助理相比较。该电影讲述的是男主为了逃避现实感情受挫,退到虚拟世界降维爱上AI,并在得知AI女友同时在和8000多个人聊天,642个人谈恋爱后彻底破防的故事。
电影《Her》
现在,OpenAI似乎担心这个虚构的故事可能成为现实。
报告指出,最终,“用户可能会与AI形成社交关系,减少对人际互动的需求,这可能对孤独的个体产生慰藉,但亦会影响健康的人际关系。”报告还补充道,听到一个听起来像人类的机器人提供的信息,可能会导致用户对其信任度过高,而忽视AI容易出错的本质。
当chatGPT被问到其MBTI是什么时,他不假思索道:“I’m a fucking ENTJ.”
该报告指出了人工智能领域一个很严重的问题:科技公司正在争先恐后地推出各种AI产品,它们可能彻底改变我们的生活方式。但问题是,这些公司在推出这些产品前,并没有完全弄清楚它们会带来哪些影响。就像很多新技术一样,刚开始大家可能只想到几个简单的用法,但用着用着,就会发现各种意想不到的结果。比如,一些人已经开始与AI聊天机器人建立所谓的浪漫关系,这引起了关系专家的担忧。
目前,OpenAI表示致力于“安全”地构建AI,并计划继续研究用户对其工具的“情感依赖”潜力。(作者/韩田澍)
平台声明:该文观点仅代表作者本人,号外财经仅提供信息存储空间服务。发布者:号外财经,转转请注明出处:https://www.qinjiong.com/2024/08/09/9335.html