桂人网

找回密码
免费注册

QQ登录

只需一步,快速开始

资迅
资迅
生活
生活
服务
服务
工具
工具
搜索
桂人网 门户 查看主题

媒体误读夸大,人工智能新闻的炒作何时可以结束?

发布者: 静待花开 | 发布时间: 2019-5-15 17:26| 查看数: 0| 评论数: 0 |帖子模式 |只看大图 |关灯


图片来源视觉中国  智能协会应用层则是将算法技术运用到具体的商业应用场景中,能够模拟人类且比人类更加高效的解决问题。

今年6月,国外一篇《AI寒冬将至》的文章曾引发业内对人工智能发展的争议,自动驾驶事故频发AI军事化以及AI会导致人类失业等话题,也不断被媒体所报道,受众对AI的质疑和不信任感在增加。

媒体掌握舆论话语权,AI研究员掌握着专业技术,但两者的矛盾越来越大,面对媒体的误读和炒作,甚至很多科学家都要专门发文或出书进行辟谣和纠正。但这样的情况是怎么发生的?媒体的角色应该是什么?又该怎么避免呢?

去年6月,F人工智能研究部门的五位研究人员发表了一篇研究报告,展示了机器人模拟人类进行谈判的对话情形,发现机器人偶尔会说一些很奇怪的话,比如对我来说,对我来说,对我来说,对我来说,对我来说球没什么用。这在当时被认为是开发出了一种机器人之间进行交流的方言。

这项研究并没有新的突破,所以业内觉得没什么,但传到媒体那就变成了另外一件事,他们觉得这是一件很严重的事情。

比如,F C(钛媒体注美国最具影响力的商业杂志之一)发表了一篇题为《人工智能发明了人类无法理解的语言,我们应该阻止吗?》的文章,全篇都在描述机器人不断出现偏离标准英语的交流,更重要的是,F的研究员是在认为这些机器人失控的情况下,决定拔掉插头,结束这项研究。

这篇文章出来后持续发酵,并且引发很多媒体的跟风,甚至煽动大家的恐惧情绪,称F的工程师因为机器人进行了新创语言的自主交流而感到恐慌,不得已叫停了他们的AI研究项目。

《太阳报》还说这与电影《终结者》的情节非常相似,其中有一个机器人出现自我意识后对人类发起了战争。

对于这些由媒体制造的耸人听闻消息,卡耐基梅隆大学机器学习系的助理教授Z L感到万分沮丧。根据他的说法,近年来机器学习和深度学习等话题越来越受关注,导致了这种见缝插针的低质新闻的泛滥 L称之为AI误报风向(AI  )不但歪曲了研究目的,还对人们正确理解该行业的发展造成了负面影响。

在这种情况下,越来越多的AI研究员也同样体会到了L的挫败感,并开始担心人工智能猜测性的虚假报道,会促使人们对其发展前景抱有错误的预期,最终威胁到人工智能未来的进步以及其他新兴技术的应用。

由来已久的夸张报道,科学家出书辟谣


事实上,媒体对计算机智能的夸大宣传并非我们这个时代所独有的,早在计算这一概念出现时就已经存在。而最早可追溯到1946年2月,当体型巨大的电子数字积分计算机E发布时,记者纷纷将其描述为电子大脑数学怪人天气预测者和控制者,甚至是巫师。

为了遏制对这一新机器的炒作,避免大众受到虚假新闻的误导,著名英国物理学家DR H在《自然》杂志上发表了一篇文章,描述了E简单而有效的工作方式。

但让他难过的是,《伦敦时报》在他的研究基础上发表了一篇题为《电子大脑解决谜题,带有记忆的阀门》的文章。对此,H特意给该编辑写信,称电子大脑一词具有误导性,机器无法替代人类的思想。

遗憾的是,误导已经形成,在媒体眼中E永远成为了大脑机器的象征。

无独有偶,美国康奈尔航空实验室的工程师F R在1958年提出了一种名为感知器()的基本机器学习算法,按照设计,它只能通过培训来识别有限的模式范围,但《纽约时报》发表了一篇文章声称该算法是一个电子大脑,可以自学,并很快能学会走路说话看写作自我复制,同时也能意识到自己的存在。

到了20世纪60年代末,许多AI先驱者越来越明显地意识到自己低估了在机器中模拟人脑的难度。

最新评论

发布主题 上个主题 下个主题 快速回复 返回列表 联系我们 官方QQ群