您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息
三六零分类信息网 > 廊坊分类信息网,免费分类信息发布

AI进军写作界,是否会成为假新闻制造机?

2019/8/5 20:29:03发布117次查看
ai研究有了新突破,研发团队却不敢公开,这是怎么回事?埃隆·马斯克(elon musk)支持的非营利公司openai拒绝公开发布研究结果引起大家的关注。原来,在团队沉浸在成功的喜悦的同时,又开始担心ai被滥用到假新闻上,毕竟现在ai写出来的文本,几乎很难分辨真实性。美国专栏作家帕金森(hannah jane parkinson)体验了这项技术,她表示,“我已经看到openai的gpt2系统如何生成我风格的文章,我们必须注意马斯克关于人工智能末日的警告。”
ai技术新突破——文章信手拈来openai是一家由埃隆·马斯克、里德·霍夫曼(reid hoffman)、萨姆·阿尔特曼(sam altman)等人支持的非营利研究公司。该公司表示,其名为gpt2的新人工智能模型非常完美,但是被恶意使用的风险非常高,以至于公司正在打破将全部研究成果公之于众的常规做法,以便有更多时间来讨论这项技术突破的后果。这个新系统可以编写新闻故事和小说作品,被称为“文本的深度赝品”(dee fakes for text)。
gpt2的核心是一个文本生成器。人工智能系统会输入文本(从几个单词到一整篇文章),然后根据已有文字预测写出接下来的几句话。该系统正在突破人们认知的边界,无论是在产出的质量方面,还是在广泛的潜在用途方面。
当用于简单地生成新文本时,gpt2能够编写与给定的样式和主题相匹配的可信段落。openai的研究主管达里奥阿莫德(dario amodei)表示,gpt2从研究的角度看具有两个方面的开创性,一个是它的规模。与之前最先进的人工智能模型相比,这些模型“大了12倍,数据集也大了15倍,范围也大得多”。它是在一个包含约1000万篇文章的数据集上进行训练的。
而gpt2所训练的数据量直接影响了它的质量,使它更了解应当如何理解书面文本。这也导致了第二次突破——gpt2比以前的文本模型更通用。通过对输入文本进行结构化,它可以执行包括翻译和总结在内的任务,并通过简单的阅读理解测试,通常表现得与专门为这些任务构建的其他人工智能一样好或更好。
openai的研究员亚历克雷德福(alec radford)认为gpt2的成功是人类与机器之间总体上更顺畅沟通的一步。他说,这个系统的目的是让电脑更好地掌握自然语言,这可能会改善语音识别(如siri和alexa)等任务。
目前,传统的新闻机构——例如彭博社和路透社——已经具备了由机器撰写新闻的能力。这将在财经和体育新闻领域发挥作用,因为在这些领域事实和数据往往占据主导地位。因此,尽管这项应用的初衷是为记者腾出时间,从事分析性更强、研究更深入的报道,但它可能反过来引起新闻编辑的恐慌。
同时,这对整个新闻业来说,可能也不是一个好消息。目前,新闻业正艰难应对广告收入不断下降、虚假新闻导致的公众不信任、越来越多的党派性读者和消费者行为的转变、侵犯版权和互联网剽窃、政治攻击(特朗普称,媒体是“人民的敌人”)等诸多问题,机器可能让新闻业彻底破产。
“假新闻”会成为下一个全球政治威胁吗?同时,潜在的假新闻撰写可能性也使得openai违背了其推动人工智能向前发展的职责,在不能确定恶意用户会如何使用gpt2之前,研究人员不会广泛应用gpt2。“我们需要进行实验,看看他们能做什么,不能做什么。”该公司的政策主管克拉克(jack clark)说,“如果你不能预测一个模型的所有能力,你必须刺激它,看看它能做什么。有很多人比我们更善于思考它可以恶意做什么。”
为了说明这意味着什么,openai做了一个版本的gpt2,并做了一些适度的调整,可以用来生成对产品无限的正面或负面评价。垃圾邮件和假新闻是另外两个明显的潜在缺点,人工智能未经过滤的特性就是如此——由于它是在互联网上训练出来的,因此鼓励它创作偏执的文本、阴谋论等等并不难。
克拉克表示,这些担忧中最主要的是,该工具可能被用于大规模传播虚假或误导性信息。在众议院情报委员会(house intelligence committee)最近就人工智能生成的虚假媒体的威胁举行的听证会上,克拉克表示,他预计,这项技术将“被用于制作(字面上的)假新闻”,并可能模仿人在线生产大量的文本,或者在社交网络上制作恶意宣传文章”。
但是随着gpt2在网上的传播,越来越多的人开始使用它,他们使用这个工具创建从贴吧帖子、短篇小说和诗歌到餐馆评论的一切东西。
未来要保证信息的真实性只会越来越难目前,openai的团队也在努力解决他们的强大工具可能会让互联网上充斥虚假文本的问题,毕竟这项技术让我们更难知道我们在网上阅读的任何东西的起源。克拉克说:“科技让造假变得更便宜、更容易,这意味着未来要保证信息的真实性只会越来越难。”
openai的担忧正受到一些人的重视。艾伦人工智能研究所(allen institute for artificial intelligence)的一组研究人员最近开发了一种检测假新闻的“神经系统”工具。参与该项目的华盛顿大学计算机科学教授崔叶婧(yejin choi)表示,检测合成文本实际上“相当容易”,因为生成的文本具有“统计特征”,几乎像指纹一样,很容易识别。
纽约数据与社会研究所(institute data & society)的研究员布里特帕里斯(britt paris)担心,尽管这种数字取证技术很有用,但这种解决方案会误导人,将假新闻定性为技术问题,而实际上,大多数虚假信息都是在没有复杂技术帮助的情况下在网上创建和传播的。
她说:“我们已经有了很多产生虚假信息的方法,在没有机器帮助的情况下,人们可以很好地传播这些信息。”哈佛大学伯克曼克莱因互联网与社会中心(berkman klein center for internet & society at harvard)联席主任约查本克勒(yochai benkler)对此表示赞同,并补充说,虚假新闻和虚假信息“首先是政治文化问题,而不是技术问题”。他说,解决这个问题并不需要更好的检测技术,而是需要对使假新闻成为现实的社会条件进行检查。
本克勒还表示,最具破坏性的假新闻是由政治极端分子和网络流氓撰写的,而且往往是关于“引发深层次仇恨”的有争议话题,比如选举舞弊或移民问题。虽然像gpt2这样的系统可以大规模地生成半连贯的文章,但要复制这种心理操作,还有很长的路要走。“大规模生成虚假文本的简单能力不太可能影响大多数形式的虚假信息。”其他专家表示,openai夸大了gpt2的恶意潜力,是为了炒作他们的研究。
无论gpt2或类似的技术是否会成为openai所担心的假新闻机器,越来越多的人一致认为,在技术发布之前考虑其社会影响是一种很好的做法。与此同时,到底应当如何正确使用准确预测技术依然困难重重。
iweekly周末画报独家稿件,未经许可,请勿转载

廊坊分类信息网,免费分类信息发布

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录