chatgpt:3:4:5:d:2:0:8:e:3:d:0:6:c:4:2:7:9:1:2:5:8:d:f:7:2:f:2:1:d:6#

生成的程序小狗。

近日,一款名为的聊天机器人火遍全球,该机器人的研发公司表示ChatGPT 聊天机器人,上线短短5天用户数量已突破100万。在网友们晒出的截图中,不仅能流畅地与人对话,还能写代码、找Bug、做海报、写年报……甚至还以鲁迅的文风进行天马行空的创作,几乎无所不能。

并非市面上唯一一款对话型人工智能系统。早在去年的I/O开发者大会上,谷歌就演示了专门为对话而建立的系统。今年春天,一名谷歌工程师甚至表示有自己的“意识”。虽然这一说法遭到了许多人的强烈批评,但却实实在在地抓住了公众的想象力。

对话型AI有何玄机?

是人工智能研究实验室在11月30日发布的全新聊天机器人。在的官网上,被描述为优化对话的语言模型,是的姐妹模型。这个模型以对话的形式进行互动,使得能够回答后续问题、承认错误、发出质疑并拒绝不适当的请求。

据澎湃新闻此前报道,采用了和一样的人类反馈中强化学习(RLHF, from )技术,通过将抹去个人信息的人工注释添加到训练集之前,利用这些数据来进行模型的微调,达到了提高帮助性和真实性,同时减轻语言模型的危害和偏见的效果。

则是谷歌公司在去年5月推出的一款突破性对话应用语言模型技术(The of ),谷歌称其可以参与流动性的自由对话。据《纽约时报》12月12日报道,即人工智能研究人员所称的神经网络,是一个松散地、仿照大脑中神经元网络的数学系统。这一技术在谷歌翻译、自动驾驶等服务中也有使用。

这样一个神经网络会通过分析数据来学习技能,例如,通过在数以千计的猫咪照片中找出固定模式,从而学会识别一只猫。

5年前,谷歌和等实验室的研究人员开始设计神经网络,分析海量的数字文本,包括书籍、维基百科、新闻报道和在线聊天记录,科学家们将它们称为“大型语言模型”。该技术可以自动生成文本,并结合不同的概念、模仿人们写的东西。

通过,已经努力完善了这项技术。不像那样能够进行自由对话,它被设计得更像是Siri、这类的数字助手。不过与一样,是在从互联网上摘取的数字文本的海洋中训练而成的。

聊天机器人并不总说实话

经过海量信息的训练,这类的聊天机器人能够很轻易地提供想法、回答问题,但是它们并不总是说实话。它们提供的答案有时真假参半,这导致人们开始担忧,随着技术的成熟,这类机器人可能会被利用来传播假消息和谣言。

一位来自美国弗吉尼亚州的数据科学家亚伦·马格利斯( )告诉《纽约时报》,虽然他时常惊异于的开放式对话天赋ChatGPT 聊天机器人,但它有时候会“胡编乱造”,因为这是一个被互联网信息训练出来的系统。

当马格利斯要求像马克·吐温那样与自己聊天时,很快描述了吐温与李维斯·施特劳斯( )之间的会面,并说马克·吐温在19世纪中期居住在旧金山时曾为李维斯这位牛仔裤大亨工作。这看起来像是真的,但事实是ChatGPT 聊天机器人,尽管马克·吐温和李维斯同时居住在旧金山,但他们从未一起工作过。

科学家将这种现象称为“幻觉”——聊天机器人就像一个很会讲故事的人,它们有办法把它们学到的东西重塑成新的东西,但不考虑这些是否真实。

据澎湃新闻此前报道,在释出不久后就遭到了 (一个程序设计领域的问答网站)的抵制。 暂时禁止用户分享生成的回复,因为很容易与用户互动,能够快速生成大量答案,这让网站充斥着许多看似可信但不正确的信息。

公司也清楚并不完美。该公司警告称,偶尔可能会“提供不正确的信息”,“产生有害的指令或有偏见的内容”,但称计划继续完善该技术,并提醒用户“这还只是一个研究项目”。

人工智能将去向何方?

谷歌、Meta等众多科技公司正在着手解决人工智能的准确性问题。Meta公司最近下线了其聊天机器人的在线预览功能,因为它反复产生不正确和带有偏见的信息。

但仍有专家警告称,科技公司无法掌控这些技术的命运,像、和这样的系统是基于多年来自由流传的想法、研究论文和计算机代码。《纽约时报》11日评论称,像谷歌和这样的公司可以以比别人更快的速度推动技术的发展,但是他们最新的技术已经被复制和广泛传播,他们无法阻止人们利用这些系统来传播错误信息。

上线后,特斯拉CEO埃隆·马斯克在社交平台上表示:“我们离强大到危险的AI(人工智能)不远了”。作为公司的创始人之一,马斯克显然无限看好这类新技术的发展,但是他也不否认,强大的新技术往往伴随着危险。

人工智能未来将发展到何种程度尚未可知,但可以确定的是,人工智能的监管与控制问题近在眼前。

免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表本站的观点和立场和对其真实性负责。如需转载,请联系原作者。如果来源标注有误或侵犯了您的合法权益或者其他问题不想在本站发布,来信即删。