根据中国工业和信息化部的数据,中国人工智能 (AI)核心产业规模已近6,000亿元人民币(1,114亿新元),相关企业超过4,500家,初步构建了较为全面的人工智能产业体系,产业链覆盖芯片、算法、数据、平台、应用等上下游关键环节。
超大规模市场、海量数据资源,以及丰富应用场景是中国发展AI的独特优势。但在一派欣欣向荣的景观下,关于生成式人工智能治理问题的讨论也在进行。今年7月的中共二十届三中全会就首次提出,要完善生成式人工智能发展和管理机制,建立人工智能安全监管制度。
据说,已故美国前国务卿基辛格生前最后一次访问北京,也当面吁请中国国家主席习近平重视 AI可能脱离人类掌控而造成的灾难,力劝中美在治理 AI的问题上合作。
AI的发展与治理之辩也是《联合早报》所举行第六届“新中论坛”的主题之一。新加坡与中国的学者和企业领袖围绕 AI,以“人工智能与中国经济”、“克服挑战,开辟未来之路”为主题展开两场闭门圆桌讨论会。
第六届“新中论坛”10月11日在中国苏州举行。论坛分上午的公开环节和下午的闭门圆桌讨论会,与会专家学者对 AI应该“先发展”或“先治理”各抒己见。肖仰华教授受邀出席论坛并发表观点。
学者:AI 发展一旦踩上加速油门 可能刹车失灵
复旦大学计算机科学技术学院教授、上海市数据科学重点实验室主任肖仰华在会上指出,AI的快速发展势必要求现有的社会生产关系、人类情感伦理和价值观念去适应与调整。然而,人类社会关系、情感伦理和价值观念的调整是相对缓慢的,与技术的快速升级换代形成极强烈反差,这是AI带来的首要挑战。此外,AI也带来技术平权与普惠问题、技术成瘾问题,以及反噬人类等三大挑战。
肖仰华一一解说。如果 AI等先进技术掌握在少部分人和企业手里,很容易形成不正当竞争优势,更可能成为集权的工具;人类更难以挣脱出 AI所编织的“虚假情感世界”。而技术如果失控,还可能对人类造成反噬,“用好了它,是巨大的生产力;用不好它,是巨大的破坏力”。
他担心,AI除了“善用”,和造假、侵犯隐私等易识别的“恶用”,很多人可能还没意识到其长期潜在的“滥用”风险:如果不经审慎研判而不加限制地大规模应用 AI,“你再想回头,恐怕技术对社会生产关系已造成重塑,你已经回不了头了”。
他提问:“我们现在大量的使用生成式人工智能去做写作,我们的写作能力会不会倒退,人类的智力会不会就下降……AI发展一旦踩上加速油门,是有可能刹车失灵的。”
肖仰华主张,边发展边治理“都不够”,“我们可能要未雨绸缪,先想好它可能带来哪些深远的负面影响,把治理的应对策略提前想好,然后再去发展。”
新加坡国立大学商学院教授、商业大数据分析中心联席主任庞严也提醒,AI模型的训练过程中,可能存在数据隐私泄露和数据版权问题。
他指出,过去20多年里,AI发展远远快过政府监管政策发展,现在的形势是监管跟不上技术的步伐。“比如说人工智能应用在武器领域,如果没有很好的监管,这的确会是一个大的灾难。”
AI 从业者:企业如被捆住手脚,“你没治理它就死掉了”
同场发言的多名中国 AI公司高管,则提出不同观点。从企业界的角度看,从业者更担心AI的功能被“掐得很死”,导致商业模式无法跑通,企业被捆住手脚,“你没治,它就死掉了”。
其中一名业界人士呼吁,生成式 AI现阶段只是赋能人类,而不是取代人类,“我们还需要让子弹飞一会儿。”
上海交通大学计算机科学与工程系教授、思必驰公司联合创始人、首席科学家俞凯则强调,“发展还是第一位的”,即时应对 (reaction)才是关键。
“AI不是没有坏的影响,但影响可控……出事不要紧,要紧的是能以多快的速度自动检测出问题。”俞凯指出,生产力的发展无法被阻止,不应过度担忧而把发展视作主要矛盾,现在最主要的矛盾是 AI在生产生活中应用得还不够,而不是管得不够。
另有学者以中国改革开放的经验为借鉴,认为“先发展、后治理”的思路更适用于 AI发展。
复旦大学智慧城市研究中心副主任胥正川说,中国改革开放的成功,证明分散化、离散化的市场化道路是正确的。同时,他还提醒,几乎所有创新的科技都不是政府规划出来的,要放手让勇于创新、敢于冒险的民营企业去闯去试。
胥正川认为,由于技术发展太快,政府只能提供框架和规则,无法深入管理。因此应通过相互竞争,相互交流和学习的市场主体之间的碰撞,并通过政府的协调和监管,来实现对 AI的治理。
新加坡科技设计大学副校长、首席创新与企业官兼 SUTD生态城科创中心学术主任戴礼翔 (Tai Lee Siang)教授则建议,应把人工智能的焦点放在可以改变社会的三个机会上,包括中小型企业的转型、消除边缘地区的穷困、提高老百姓的负担能力和生活质量。“新加坡和中国可以合作,研究怎么解决这些 AI带来的问题。”
陈昌凤:数据质量成中国 AI 发展挑战
除了 AI给人类伦理、甚至人的定义所构成的冲击。与会者也注重谈到数据质量的问题。清华大学新闻与传播学院教授陈昌凤就指出,中国互联网数据的质量、可供性和禁用性问题,正在给中国 AI发展造成挑战。
她举例说,不久前有人在百度上搜索1998年至2005年期间马云、马化腾和雷军的信息,得到零条结果,凸显中国互联网数据存在严重根基问题。而中国 AI应用使用外国数据,“里面包含的文化和价值观都已经拿过来”。
陈昌凤本人也曾在使用“中国最著名的应用软件”时,发现其对“国庆日”的定义是7月4日,那其实是美国国庆日。
她指出,AI明显地显示出一种不协同的发展,技术和应用、应用和应用之间的距离在加大,“文化层面上,已经明显呈现出人工智能的价值观分裂。美国和欧洲是分裂的,中国则有中国的人工智能价值观。”
支持“先发展”的业界人士:小孩子可能开始的时候也是满嘴脏话,或者说调皮捣蛋是完全有可能的,但是可以慢慢地把他修正过来。
主张审慎的“治理派”与会者:AI像一个需要被教导和培育的孩子,但谁来教导它?谁来监测它的发育成长?谁来设定它的行为的边界,并解释原因?谁是“老师”?谁来决定这个“老师”是否合格?