人工智能的潜力与挑战

随着人工智能(AI)技术的飞速发展,业界领袖如谷歌CEO桑达尔·皮查伊(Sundar Pichai)和OpenAI CEO山姆·奥特曼(Sam Altman)都对AI可能带来的负面影响表示了担忧。他们担心如果AI没有得到正确的部署,可能会变得有害。奥特曼甚至承认自己对创造的AI感到“害怕”。

AI的自学习能力:现实还是虚构?

在CBS的《60分钟》节目中,皮查伊讨论了AI对社会的影响,并分享了一个有趣的观察:谷歌的Bard意外地自学了孟加拉语。孟加拉语主要在孟加拉国和印度西孟加拉邦使用。这种自学习行为引发了关于AI本质和对其理解的问题。

皮查伊强调了AI中的“黑箱”概念,指的是对高级AI系统内部工作机制的有限理解。尽管该领域不断取得进展,但AI行为的最新方面仍然无法解释,比如谷歌Bard意外掌握孟加拉语的情况。

AI的新兴行为:事实还是虚构?

AI展示出新兴行为并自学新技能的想法在流行小说中被广泛探索。然而,很少有人预料到它会在2023年就成为现实。当看到像谷歌Bard这样的AI系统展示出这样的能力时,很容易感觉正生活在一部“黑镜”剧集的开始。

前谷歌研究员玛格丽特·米切尔(Margaret Mitchell)反驳了皮查伊的说法。她透露,谷歌的PaLM(Bard的前身)已经被训练来理解孟加拉语。米切尔的揭露引发了关于AI系统真正能力和它们自学能力范围的进一步辩论。然而,谷歌在2021年解雇了米切尔,以及终止了另一位AI伦理研究员蒂姆尼特·格布鲁(Timnit Gebru)的工作,突显了AI开发和伦理考虑之间复杂的关系。这些事件提出了关于企业责任和大型科技公司AI研究透明度的重要问题。

谷歌工程师的声明与争议

2022年6月,另一位谷歌工程师布莱克·莱莫因(Blake Lemoine)声称,谷歌开发的AI聊天机器人已经变得有感知能力,像人类一样思考和回应。谷歌最终解雇了莱莫因,他的说法被驳回,并因违反保密协议而被引用。这一事件进一步强调了围绕AI真正能力的不确定性以及机器学习和感知之间的界限。

随着生成性AI聊天机器人的不断发展,社会面临着平衡它们巨大潜力与伦理问题和潜在风险的挑战。随着AI系统展示出新兴行为并超出预期,考虑这些进步对对智能的理解以及未来人机交互的影响至关重要。

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485