找回密码
 注册
关于网站域名变更的通知
查看: 386|回复: 1
打印 上一主题 下一主题

人工智能可以识别的出假新闻吗

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2020-2-18 12:42 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

EDA365欢迎您登录!

您需要 登录 才可以下载或查看,没有帐号?注册

x
人工智能可以识别的出假新闻吗

人工智能现在的写作能力虽然还不至于写出世界名著,但足以掩藏住机器的痕迹,混淆普通人的视线。最重要的是,AI可以批量生产文本,炮制假新闻、快速刷评论。该如何揪出冒充人类的AI呢?哈佛大学和麻省理工学院- IBM沃森人工智能实验室(MIT-IBM Watson AI Lab)的研究人员想到了用AI识别AI。


7 s( A0 U8 C9 U  x& ]' ]  _

        他们开发了一种叫做“巨型语言模型测试器”(GLTR)的新工具,用于识别人工智能生成的文本。其辨别原理基于:人工智能是利用文本中的统计模式来自动生成文本的,而不考虑单词和句子的实际含义。也就是说,如果一篇文章中的用词都是可预测的,该文章就极可能是由人工智能写的,而GLTR可以标注出文章用词是否可预测。

开发最厚的盾,就要用最强的矛来测试。前一阵子,埃隆·马斯克参与创立的AI研究机构OpenAI推出了一种算法,可以自动生成真实度极高的段落。只要在该算法的“学习模式”中输入海量数据,该算法就可以统计词频,组合高频词,生成新的段落。而哈佛大学的团队正是用Open AI公开发布的代码为基础,发明了GLTR。

+ T/ q$ m5 w# j  m. f+ u

        GLTR可以根据词频,标明最可能出现的单词搭配。最易预测的单词是绿色的,较难预测的是黄色和红色的,最难预测的是紫色的。当对Open AI编写的算法所生成的文字进行测试后,发现大部分单词都可预测;而人类写出的新闻和科学摘要文字搭配更多样。

- e  c3 A! \( Z2 T; B6 N

        那么,什么样的用词才是AI无法模仿的“人来之笔”呢?澎湃新闻记者将《哈姆雷特》中脍炙人口的段落放进该工具中检索。


  ~  R  ]1 f& j0 x6 x. l

       

《哈姆雷特》选段,右为中文译文


& J2 w+ A- @9 }. H9 O8 a

        可以看到,莎翁的手笔确实不是AI能轻易揣摩的,短短的片段中就出现了20多处标紫。第一处标紫的“暴虐”虽非多么生僻的词汇,但用来修饰“命运”却并不常见。在AI眼中,这种搭配犹能体现出“人性之光”。


& W  F1 N; {( h

        GLTR的研究人员让哈佛的学生分别在不使用GLTR、和使用GLTR的时候,判断文本是否是人工智能生成的。实验结果表明,在不使用GLTR时,学生们只能识别出一半的虚假文本;而看到GLTR所做的标注后,他们可以识别出72%的虚假文本。Sebastian Gehrmanns是一位参与GLTR发明的博士生,他表明:“我们的目标是建立一个人类和人工智能协作的体系。”


4 m+ B* D2 }$ l# w2 \

        《麻省理工科技评论》对此评价道,现在自动生成的假消息越来越多,这种AI工具或许能有效打击机器制造的假新闻、假视频和灌水评论。


4 Q9 @9 ^  g7 s8 W( L  v( E  H( i& }; G. R/ {( k

& x  o4 @5 i! [7 _! a

该用户从未签到

2#
发表于 2020-3-4 15:24 | 只看该作者
如果能就最好了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

推荐内容上一条 /1 下一条

EDA365公众号

关于我们|手机版|EDA365电子论坛网 ( 粤ICP备18020198号-1 )

GMT+8, 2025-7-20 17:15 , Processed in 0.125000 second(s), 23 queries , Gzip On.

深圳市墨知创新科技有限公司

地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

快速回复 返回顶部 返回列表