2017年人工智能的十大失误

从自动驾驶车辆事故到Face ID黑客,人工智能的这一年并不能算是完美无缺。

至顶网软件频道消息: 人工智能(AI)在2017年经常会登上技术头条新闻,内容通常是关于创新的新产品和在工作场所的增长的。

多个报告探讨了这项技术的未来和影响。据Gartner 10月的一份报告预测,到2020年,人工智能将创造230万个就业机会。而中国现在正在争夺人工智能的世界主导地位,这可能意味着全球权力的转移。

2017年人工智能的十大失误

专家们预测了人工智能的增长以及针对商业用户和消费者的潜在道德问题。虽然2017年只有17%的开发者参与了这项技术的研发,在2018年仍不计划使用人工智能或机器学习的人只有其中的四分之三,这意味着持续的增长。

但是,像大多数新兴领域一样,人工智能经历了一些值得注意的、成长中的痛苦。

这里的十个错误让可以让大家了解人工智能。

1. 谷歌翻译在把土耳其语翻译成英文的时候表现出了性别偏见

土耳其语有一个代词"o",用于指代单数的、不分性别的第三人称,这个词没有直接对应的英文翻译。Quartz在11月份的时候注意到,谷歌翻译并不知道到底该如何处理这个问题,并使用了带有性别偏见的算法来猜测相应的英文代词是"他"、"她"还是"它"。

结果是:在有"医生"或"努力工作"等词的句子中,这个中性的代词被翻译成"他",而在有"懒惰"和"护士"的句子中,这个中性的代词就会被翻译成"她"。

2. Facebook的聊天机器人在发展出自己的语言后被关闭

Facebook的研究人员发现,爱丽丝(Alice)和鲍勃(Bob)--该公司的两个人工智能聊天机器人--已经发展出了它们自己的秘密语言,并且正在用这种语言进行对话。不过谈话记录看起来是无害的,这家社交媒体巨头表示这是一种速记形式。在他们的谈话被发现后,爱丽丝(Alice)和鲍勃(Bob)被关闭了。

3. 第一天就出了事故的自动驾驶面包车

就在自动驾驶班车在拉斯维加斯推出的不到两个小时之后,一辆半卡车倒车撞到了其中一辆班车。班车本身没有错--当传感器发现卡车在倒车时,它将车停了下来,警方指控卡车司机非法倒车。

虽然该市的一份声明表示,如果卡车有类似的传感器,这起事故就可以避免,但是如果班车采取了不同的反应,也可能就避免了轻微的剐蹭。

4. 谷歌Allo建议使用围头巾的男子的表情符号回应枪支的表情符号

对于消费者和商业专业人士来说,谷歌的智能回复功能可以帮助你快速、简单地做出回应。但CNN Money发现,在一种情况下,建议的答复显示出偏见的迹象。

在谷歌Allo上,对于枪支的表情符号给出的三个建议的回应中,有一个是带着头巾的男子的表情符号。在CNN向谷歌报告了这一实例之后,谷歌进行了道歉,并调整了Allo的算法。

5. Face ID被面具打败

在iPhone X发布后的一个星期,黑客们已经绕过了手机的签名Face ID面部识别系统。越南的安全公司Bkav用3D打印的面具让一个iPhone X相信它是一个人,并解锁了电话。该公司表示,这个面具的制作成本大约是150美元。

6. 人工智能在Kentucky Derby赛马比赛结果预测中失败

在依次猜出2016年所有的四位获胜者之后,人工智能没有猜对5月份的2017 Kentucky Derby的获胜马匹。虽然表现超出了人类,但人工智能只猜出了前四名中的两名,而且这两名的顺序也是错的。虽然赛马比赛的结果是不可预测的,但是一些人对人工智能有很高的期望。

7. Alexa把她的派对带到了德国

11月1日晚间,在接到邻居的报警后,德国警方闯入了一间公寓,邻居们报警称这间公寓在凌晨发出嘈杂的音乐声。原因?不是派对,而是在居民离开家之后,Amazon Echo随机地播放音乐。

更糟糕的是,警方在关闭了Alexa之后改变了锁的设定,把该居民锁在了外面,并且要支付一大笔锁匠的账单。

8. Google Home故障导致了将近100%的故障率

几乎所有的Google Home设备在六月都出现了故障,几个用户报告称每当他们尝试与智能助理进行交互时都会得到错误信息。投诉从5月31日开始,并且在下一周堆积成山,而谷歌在那时正在寻找解决方案。

9. Google Home Minis监视着它们的主人

十月份,安全研究人员发现一些Google Home Minis被秘密地打开了,录制了数千分钟的主人的音频,并将这些录音发送给谷歌。一位用户注意到他的数字助理已被打开并试图偷听电视的声音,然后他检查了谷歌的"我的活动"门户,在那里他发现设备已经在录制他的声音。

谷歌很快发布了一个补丁来阻止这个问题。

10.Facebook允许广告针对"犹太人的仇敌"

使用Facebook的人工智能驱动的自助服务平台来购买广告,企业和品牌可以将他们的信息针对不同的人群。ProPublica在9月份报告表示,其中一些人口统计分类包括那些有种族主义者或持反犹太人观点的人。

这家新闻机构发现,广告可以专门针对那些对"如何烧死犹太人"或"'为什么犹太人毁坏世界'的历史"等话题感兴趣的人。"Facebook表示,这些类别是由算法创建的,而不是由人类创建的,并且已经删除了这些选项。

来源:至顶网软件频道

0赞

好文章,需要你的鼓励

2018

01/11

16:11

分享

点赞

邮件订阅