5月20日上午,YEF 2023继续在温州举行,肖仰华教授参加大模型与数据安全论坛,并以“数据视角的大模型安全”为题作报告。以 ChatGPT 为代表的预训练大模型获得成功应用。与此同时,大模型的安全问题也获得广泛关注,主要体现在三个方面:(1)模型内生安全问题:大模型的大数据驱动、高复杂强不确定等特性使其存在内生缺陷,带“病” 应用存在重大安全隐患;(2)模型不当应用问题:大模型蕴含的训练数据偏见和算法设计偏见,导致歧视、霸凌等问题,大模型合规应用面临挑战;(3)认知安全问题:大模型驱动的 AIGC 技术深刻影响和改变了互联网信息服务领域的内容生成、内容分发等,影响人们获取信息、辨别真假、形成认知的过程,带来潜在的认知安全问题。为此,本论坛着眼大模型的发展和安全,聚焦模型内生安全和数据安全展开思辨和深入探讨,为发展可信可管可控的大模型提供发展建议。
在“数据视角的大模型安全”报告中,肖仰华教授讨论了数据视角下的大模型安全,从AGI的核心,以知识的发现和应用为核心内容的认知智能入手,探讨了认知智能是感知智能升级的全新阶段,并且认知智能与感知智能是双向互动的关系,大模型的持续发展也将成为认知智能的新底座。认知智能是数据、算力、模型发展背景下,数据智能、知识智能的集成融合创新的产物;那么构建安全、公平、无害的大模型实现高阶认知智能的重要方向。
同时大模型的安全问题绝不仅仅是技术层面的挑战,而是涉及到社会安全的广泛议题。关于如何构建更加有用(helpful)、可信(truthful)和无害(harmless)的大模型,这要求在设计和开发大模型时要考虑更多因素,包括数据隐私和保护、模型的公平性和透明性、以及对用户和社会的潜在影响,这是一个系统性的研究问题。大模型作为认知智能的新底座,涵盖了场景认知、社会认知、情感认知、自省认知、价值认知等多个方面。大模型在应用过程中可能面临的安全问题不仅包括技术上的漏洞和攻击,还涉及到社会伦理、隐私保护、数据安全等多个层面。因此,一旦大模型融入社会,必然会引发各种各样的问题和挑战。大模型的安全问题也将是一个全方位的系统性难题。
在大模型如火如荼的发展进程中,如何突破“科林格里奇困境”是值得不断去思考的问题。影响和控制技术的长远发展所面临的一个双重约束困境;一方面是信息困境,即一项技术的社会后果不能在技术生命的早期被预料到;另一方面是控制困境,即当不希望看到的后果被发现以后,技术往往已经成为整个经济和社会的一部分,此时想要控制它将会十分困难。