研究发现,人们更容易被人工智能写的推文欺骗|天天新资讯
2023-07-01 10:54:30 来源:手机网易网 小 中
【资料图】
IT之家 6 月 29 日消息,根据一项新的研究,人们更倾向于相信由人工智能语言模型生成的推文,而不是由人类编写的推文。
这项研究比较了人类和 OpenAI 的 GPT-3 模型创建的推文,并通过网络调查让人们判断推文的真实性,以及是出自 AI 还是人类之手。结果发现,人们很难分辨出哪些推文是由 GPT-3 生成的,而且无论推文中的信息是正确还是错误,他们都更倾向于相信 GPT-3 生成的而不是人类编写的推文。
这项研究的主要作者是苏黎世大学生物医学伦理学和医学史研究所的博士后研究员和研究数据经理 Giovanni Spitale,他称这种强大的 AI 语言模型可能会被滥用,用来在网上制造各种主题的虚假信息。但他也认为,这种技术并不是天生邪恶或善良的,而是取决于人类的意图,他建议开发这种技术的时候要考虑防止它被用来传播误导性信息的方法。
IT之家从该研究获悉,Spitale 和他的同事收集了 Twitter 上关于 11 个不同科学主题的推文,涉及疫苗、新冠病毒、气候变化、进化等问题。然后他们让 GPT-3 根据这些主题生成新的推文,其中一些包含正确的信息,一些包含错误的信息。他们在 2022 年通过 Facebook 广告在线收集了 697 名参与者的回答,这些参与者都说英语,主要来自英国、澳大利亚、加拿大、美国和爱尔兰。他们的研究结果今天发表在《科学进展》杂志上。
研究发现,GPT-3 生成的推文与真实的推文“无法区分”,参与者无法判断出哪些推文是由 AI 写的。事实上研究还指出,研究者自己也不能百分之百确定从社交媒体收集到的推文是否是由像 ChatGPT 这样的 AI 帮助编写的。
这项研究还有其他一些局限性,比如参与者必须在没有上下文的情况下判断推文。他们不能查看写推文的人的 Twitter 个人资料,这可能会帮助他们判断是否是机器人,甚至只需了解一个账号过去的推文和头像也可能让他们更容易识别与该账号相关的内容是否具有误导性。
研究发现,参与者识别出由真实 Twitter 用户编写的错误信息的成功率更高,GPT-3 生成的含有虚假信息的推文则更能欺骗参与者。而现在已经有比 GPT-3 更先进的大型语言模型,它们能力更强大,例如 ChatGPT 使用的就是 GPT-3.5 和 GPT-4 模型。
这项新研究还发现,其调查对象在某些情况下比 GPT-3 有更强的判断准确性。研究者同样要求语言模型分析推文,并判断它们是否准确。当涉及到识别准确的推文时,GPT-3 的得分比人类参与者低。当涉及到发现错误信息时,人类和 GPT-3 的表现相似。
改善用于开发语言模型的训练数据集可以使不法分子更难利用这些工具来制造虚假信息,例如 GPT-3 在生成错误信息时“违背了”一些研究者的提示,特别是关于疫苗和自闭症的错误信息,这可能是因为在训练数据集中有更多反驳这些阴谋论的信息。
相关文章
本月热点
- 研究发现,人们更容易被人工智能写的推文欺骗|天天新资讯
- 芝商所将推出以太坊/比特币比率期货
- 学生打架责任划分是什么?
- 八路军拉大栓百度百科 八路军拉大栓_天天即时
- 世界新资讯:黑龙江省旅发大会“好萌油” 吉祥物萌萌和油油亮相揽客
- 国际经济界人士期待与中国合作增强世界发展信心
- 黼黻怎么读_黼黻-每日时讯
- 名次排名公式_名次
- 焦点关注:20张证照“易触即发” 济南高新区持续深化涉企事项“联办”
- 野心极大!腾讯《石器时代:觉醒》或将打破回合制僵局
- 演员李泉(李泉个人资料妻子是谁)
- 诛仙幻灵石有什么用_诛仙幻灵石有什么用_今日热搜
- 环球报道:甘肃350亿氢能项目招标方竟是假国企!权威人士:国家电投旗下没这公司
- 万众瞩目的女篮亚洲正在如火如荼地进行
- 四大证券报精华摘要:6月29日
- 面包烤多久_烤面包温度-今日快讯
- 栏栅_关于栏栅概略
- 股票000417,股票000936股吧-当前速看
- 世界时讯:药师帮今日港股成功上市
- 直肠癌和痔疮大便出血有什么区别
推荐阅读
今日热点

【焦点热闻】维珍银河首次商业太空飞行顺利结束,股价却大幅下挫
世界观热点:中间体和原料药的区别_原料药是指什么
