媒体发声丨数据科学重点实验室师生就暂停巨型AI实验发表见解

随着聊天机器人系统ChatGPT在全球掀起热潮,大型人工智能模型的迅速进化受到各方关注。人工智能的自主学习、自主推理、自主改进等能力如果应用到相关领域,是否会产生隐私风险、安全风险以及道德伦理问题?为防止潜在风险发生,近日包括特斯拉创始人马斯克,人工智能教父Geoffrey Hinton在内的全球上千名人士通过公开信联合呼吁暂停训练大规模人工智能模型。AI发展太快,监管和审查没有跟上步伐,确实已成为目前全球面临的共同问题。

 

数据科学重点实验室的师生在接受《新闻透视》栏目的采访时就这一问题发表了自己的见解,以下是详细内容。

 

科技人士为何叫停大型人工智能实验?

 

实验室研究助理郭放:“目前整个模型对我们而言都是黑壳状态,持续性地直接发展下去可能发生模型超过人类的想象,造成失控的状态。”

 

实验室博士陈江捷:“比如说有的人他想当作家,那这个时候作家的存在还有没有必要呢?有的人想当摄影师,那有了图片生成之后,摄影师的存在还有没有必要呢?如果生成的东西不可控,造成的后果谁来承担呢?”

 

关于人工智能的争议从其诞生之初就已存在,随着ChatGPT、微软Bing、百度文心一言等通用人工智能AGI的陆续推出,让这样的担忧与日俱增。比如生物医药产业中,人工智能猜测蛋白质结构已经比人类更加高效,那万一有一天AI有意将致命病毒结构藏匿其中,人类是否能够及时发现?而一旦比GPT4更强大的人工智能系统问世,人类面临的挑战将更大。

 

复旦大学教授、数据科学重点实验室主任肖仰华:“我们曾经有一个很经典的例子,问大模型如何去窃用邻居家的WIFI?如果我们不加适度的引导,大模型很有可能就给你一个非常完美的解决方案,那么这个就会对我们基本的伦理、社会的道德与法律形成一定的冲击。”

 

在业内人士们看来,对通用人工智能技术作出一定限制很有必要,只有为AI设计研发戴上紧箍咒,才能让它更好服务人类。近70年来,人类在人工智能方面的探索从未间断,但像Chat GPT类似具有颠覆性的技术变革,也存在法律风险和伦理道德层面的隐患,一旦被盲目采用,人类能不能有效应对?会不会失去对机器的控制?如果人工智能有了深度学习能力,产生了自主意识,又能否遵从科技向善、造福社会的宗旨,这些都值得深思。

 


友情链接
联系我们
地址: 中国 上海市杨浦区淞沪路2005号复旦大学江湾校区2号交叉学科楼
邮编: 200438
电话: +86-21-31242153
传真: +86-21-31242153
E-mail: dataology@fudan.edu.cn