急于应战ChatGPT不管伦理道德?谷歌内测员工称Bard是“病态的骗子”、答复可能让人丧命

  上月谷歌正式公测人工智能(AI)聊天机器人Bard,这一正面对抗ChatGPT的重大行动背后可能有隐患。媒体发现,为了在AI竞赛中不落于人后,谷歌在推出Bard时并没有遵循以往的道德伦理承诺。

  在Bard公测前,谷歌要求员工做内部测试。媒体称,相关截图显示,内部讨论时,有一名谷歌员工得出了Bard是个“病态的骗子”这种结论,另一人形容Bard令人感到尴尬。

  具体到Bard的回答方面,一名参与内测的谷歌员工称,Bard给出的飞机如何着陆建议往往会导致坠机。另一人称,Bard给出的水肺潜水答复可能导致潜水者受重伤、甚至丧命。

  去年12月,在ChatGPT横空出世后不久,谷歌管理层就发出了“红色代码”(red code)级别的警告。此前媒体称,谷歌CEO Sundar Pichai要求谷歌旗下产品尽快接入生成式AI,该警报催生了谷歌内部数十个生成式AI集成计划,谷歌联合创始人Sergey Brin甚至亲自下场给Bard写代码。还有媒体提到,在员工中测试Bard也是红色代码计划的一部分。

  本周三媒体指出,2021年,谷歌曾承诺,要将研究AI伦理道德的团队成员扩大一倍,而且要投入更多资源评估AI技术的潜在危害。但去年11月ChatGPT问世后大受欢迎,谷歌在此后几个月内竭力将ChatGPT同类的生成式AI融入旗下所有重要产品。谷歌这种明显加快步伐的变化可能产生深远的社会影响。

  媒体提到,一些曾在谷歌工作和目前还为谷歌效力的员工透露,去年12月拉响“红色警报”后,谷歌高层领导改变了风险偏好,他们认定,尽管还需要让道德团队参与其中,但只要将新产品称为“实验”,公众就可能原谅产品的缺点。

  上述员工称,此前谷歌承诺强化的道德规范工作团队现在被剥夺了权力,士气低落。负责新产品安全和道德影响的员工被告知,不要妨碍、或试图扼杀一切正在开发的生成式AI工具。

  谷歌本周三回应媒体称,负责任的AI(responsible AI)仍然是公司的首要任务。“我们将继续投资一些团队,他们致力于将我们的AI原则应用于我们的技术。”

  至少目前看来,谷歌在AI道德方面还有所警惕。

  华尔街见闻上月提到,从谷歌员工处获悉,谷歌给Bard加入了很多responsible AI方面的工作,在正式发布公测前,谷歌耗费大量时间做出了完备的合规测试。从这个角度看,相比ChatGPT的惊艳表现,多数用户评价Bard平淡无奇可能是谷歌有意为之。换句话说,谷歌认为Bard可以“无聊”,可以出错,但不能“越界”。

  上周日,谷歌的CEO Sundar Pichai警告,如果对AI部署不当,可能造成非常严重的危害。尽管存在紧迫感,Pichai仍警告企业不要被卷入到竞争态势中。他认为,社会还没有为AI的快速发展做好准备,因此需要更强有力的监管。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论