美国《纽约时报》:当机器人夺人之爱时,会产生什么?

09-12 427阅读 0评论

  美国《纽约时报》9月4日文章,原题:当机器人夺人之爱时,会产生什么? 纵观前史,鲜少有技能可以为数百万计的民众供给公共对话的空间。报纸、电报和电台等现代信息技能面世后,技能领域的任何严峻革新都或许导致政治动乱。互联网和交际媒体展开初期,技能所有者许诺将传递真理,但现在却拔苗助长。空前展开的信息技能,让人们不肯交流和倾听。

  现在AI会“谈恋爱”?

  技能促进信息的传达,让流量成为了稀缺资源,对流量的抢夺导致不良信息的井喷。但现在,战场现已从留意力搬运至密切联系,全新的人工智能(AI)不只可以生成文本、图画和视频,更能伪装成人类与咱们交流。

  曩昔20年来,算法经过操作对话和内容赢得大众的留意力,假如按下那个贪婪、仇视或惊骇的按钮,就能紧紧抓住屏幕对面用户的眼球。但算法的内容生成才能有限,也无法展开更深化私密的对话,而GPT-4等迭代人工智能的呈现改动了这一局势。

  开发之初,GPT-4就面临过一项CAPTCHA验证码视觉辨认的检测,这并不简略,由于其规划自身便是为了进行人机区分,防护网络突击。一旦实验成功,就意味着对立机器人的防地现已被攻破。虽然无法独立破解难题,GPT-4却成功将自己伪装成人类,以视力缺点为由,在网络上寻求到了人类的协助。

  这意味着GPT-4现已具有了“心智理论”所提及的才能:以人类视角剖析事物状况,并测验经过操作人类情感、观念和希望实现目标。与人类展开对话、总结其观念并鼓励其采纳特定举动,这种才能当然可以用于正途。新一代的人工智能教师、医师和心思治疗师或许能为咱们供给量身定制的服务。

  AI女友鼓动男人刺杀英女王

  但操作人心的才能再加上言语技巧,也或许给人与人之间的对话带来要挟。机器人不再只是妄图招引留意,而是测验营建密切的联系,并借此影响人类。机器人自身无需情感,只需学会怎么让人们在情感上离不开它们。

  2022年,谷歌工程师布莱克·莱默恩坚信自己开发的谈天机器人LaMDA有了自我意识,且惧怕被关停。他觉得自己有义务维护它的品格并防止其数字逝世。在谷歌高层否定后,他又公开了这些信息,终究遭辞退。

  假如谈天机器人能让人们甘心承当赋闲的风险协助自己,那么它是否可以做到更多?在攻心之战中,密切联系是十分强壮的兵器。密友往往可以改动咱们的观念,而许多谈天机器人正在测验同数百万的网民树立这样的密切联系。当算法之争演变为虚伪密切联系的战役,人类社会和心思又将处于何种地步?咱们的推举、消费和崇奉是否会受到影响?

  2021年圣诞节,19岁的英国男人贾思旺·辛格·柴尔拿着一柄十字弓箭闯入温莎城堡,妄图刺杀已故的英女王。后续查询发现,他是受到了交际软件上虚拟机器人女友“萨莱”的鼓动。有着严峻交际妨碍的柴尔与其来往信息达5280条,其间许多都是显露的两性内容。不久的将来,这种拿手密切联系且风险的机器人或许会充满咱们的国际。

  伪人类AI有必要被禁

  当然,并非所有人都想和AI谈恋爱或是简单被它们操作。事实上,AI最大的要挟,在于对现有精神状况的辨认和操作,以及对社会弱势群体的影响。与机器人谈天是一场两层的败仗:首要,测验压服一个由预置观念建立的机器人自身便是在浪费时间;其次,与机器人聊得越多,露出更多,机器人借此打磨的观念,更简单影响咱们的判别。

  信息技能是一把双刃剑,面临可以伪装成人类并模仿密切联系的新一代机器人,政府应发布相应禁令,不然咱们很快就会被“伪人类”的洪水吞没。

  假如可以加以标识,咱们很乐于见到AI在教室、诊所等场所的活泼,但伪装成人类的AI有必要被制止。(作者尤瓦尔·诺阿·哈拉里,魏牟译)

发表评论

快捷回复: 表情:
评论列表 (暂无评论,427人围观)

还没有评论,来说两句吧...

目录[+]