0°

ChatGPT:人工智能的新奇体验,却带来的威胁

  这是一篇外媒的报道:

  人工智能当前发生的令人难以置信的事情,即大家都在谈论的像ChatGPT这样的系统,它们可以生成看起来非常人类的文本。这使得它们很有趣,但也有一个黑暗的一面,因为它们模仿人类风格的能力非常强,有可能被用于大规模生产虚假信息。为了了解它最好的地方,可以考虑一个由ChatGPT生成的例子,由AI的基础研究人员之一的Marvin Minsky的儿子Henry Minsky通过电子邮件发送给我。他请ChatGPT以“独立宣言”的风格描述在烘干机中丢失袜子的情况。

  聊天机器人(如ChatGPT)生成的文本非常逼真,但也存在一定的危险。它们不够可靠,经常犯错,并且容易被利用生成虚假信息。这些机器人操作成本几乎为零,使得生产虚假信息的成本降至零。最近发布的Meta Galactica就是一个明显的例子,一些人立即对它的可靠性和可信度提出了担忧,在报道其生产政治和科学虚假信息的能力后,Meta AI在三天内撤回了该模型。

  通过语言模型(如ChatGPT)生成的虚假信息正在占领社会,并带来了巨大的问题。因为生成这些信息的成本几乎为零,所以无法阻止它们的涌入。Stack Overflow网站因ChatGPT生成的回答不够准确,已经实施了暂时禁令。如果网站被生成的代码样例淹没,程序员就不会再去那里,它拥有超过3000万个问题和答案的数据库将不可信,而这个14年的社区驱动网站将会消亡。由于这是全球程序员最重要的资源之一,所以对软件质量和开发人员生产力的影响可能是巨大的。

  堆栈溢出只是冰山一角,真正的问题是国家和其他恶势力不太可能会自愿放下这些新的武器,相反,他们很可能会将大型语言模型作为他们战争真理的新一类自动武器,攻击社交媒体并大量制作假网站,这是我们从未见过的。对于他们来说,大型语言模型的幻觉和偶尔的不可靠性不是障碍,而是优点。

  大语言模型对社会带来的威胁,比如俄罗斯的“虚假水炮”宣传模型,旨在制造一片混沌和信息的迷雾,不管这些大语言模型的不一致性如何,只要能大大加强虚假信息的量,就可以实现它们的目的。而这也是新一代大语言模型使得可能的。此外,骗子们也可以利用大语言模型制造一个假网站,比如有关可疑医疗建议的网站,目的是销售广告。因此,本文提出了一个关键问题:社会该如何应对这种新威胁?由于技术本身不可避免,因此有四种途径,但都不容易,也不是互相排除的,但都是紧迫的。

  首先,每个社交媒体公司和搜索引擎都应该支持和扩展StackOverflow的禁令:自动生成的误导性内容应该被删除,这些内容应该被标记为虚假信息。

  第二点,每个国家都需要重新考虑关于调整大量传播的虚假信息的政策。个别的谎言传播出去是一回事,但是大量的虚假信息分发是另一回事。如果情况恶化,我们可能不得不对虚假信息进行相似的处理,就像对诽谤一样:如果消息是充分恶意、有害且分发量达到一定量(如超过一个月的一定量),则应该将这类说话视为可操作的法律说话。这个数字可以适用于僵尸矿商团企图影响选举或利用医疗虚假信息的情况。

  第三点,来源显得更加重要。用户帐户必须得到更加严格的验证,像哈佛和Mozilla的human-ID.org这样的允许匿名、抗机器人身份验证的新系统必须成为强制性的。

  最后,我们需要建立一种新型的人工智能来对抗这种被释放的威胁。大型语言模型非常擅长产生虚假信息,因为它们知道语言的声音但对现实没有直接的把握。因此,我们需要新的工具。大型语言模型缺乏验证真实性的机制,因为它们没有推理的方式,也无法验证它们的所作所为。我们需要找到新的方法,将它们与经典人工智能工具(如数据库、知识和推理网络)整合在一起。

  因此,我们可以看到,人工智能平台,特别是ChatGPT,具有很大的优势,但同样也存在着一些潜在的危险。这提醒我们,我们需要对使用人工智能的方式和目的进行认真的考虑,确保它的用途是安全和健康的。那么,我们该如何平衡人工智能的便利性和安全性呢?这是一个值得讨论的话题,希望读者也能在这方面进行探讨。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论