从 “技术突破” 到 “责任共担” 的治理挑战
当 AI 大模型开始生成新闻、撰写法律文书、辅助医疗诊断,其带来的风险与安全挑战,已超越技术范畴,成为需要政府、企业、社会共同面对的治理课题。
欧盟《人工智能法案》将大模型分为四个风险等级,禁止用于社会评分等不可接受风险场景,高风险场景如医疗诊断需事前认证,违规高可罚款全球营收 7%。美国推出《人工智能责任法案》,要求开发者披露模型训练数据来源,对 “幻觉” 导致的损害承担连带责任。中国《生成式人工智能服务管理暂行办法》则强调 “使用者责任”,要求企业建立内容审核机制,保留交互记录 1 年以上。
三星电子的教训令人警醒。2024 年,员工违规使用 ChatGPT 处理芯片设计文档,导致核心技术泄露,损失超 1 亿美元。更普遍的风险是 “算法偏见”,某招聘大模型因训练数据偏差,对女性求职者推荐率降低 18%;“深度伪造” 技术滥用导致金融诈骗案增长 230% 。这些风险倒逼企业建立 “模型安全沙箱”,百度文心大模型在医疗领域应用前,需通过 5000 例以上真实病历测试,确保诊断建议符合临床指南。
科大讯飞建立 “委员会”,由法律专家、AI 学者、用户代表组成,对教育大模型的作文生成功能设置 “价值观过滤”,自动识别并拒绝歧视性内容;美团外卖大模型在优化配送路线时,加入 “骑手疲劳度评估”,避免因过度追求效率导致安全事故,使骑手投诉率下降 27%。这些实践表明,考量正在融入技术设计的底层逻辑。
荷兰的 “公民 AI 议会” 模式值得借鉴,随机选取 100 名不同职业、年龄的公民,参与制定大模型在公共服务中的应用规则,最终形成的 “透明化交互”“数据可追溯” 等条款被政府采纳。普通用户也需提升 “数字素养”,斯坦福研究显示,接受过 AI 教育的用户,识别虚假信息的准确率比普通用户高 41%。
安全的本质,是平衡 “创新活力” 与 “社会稳定”。唯有建立 “技术创新 - 评估 - 法律规制 - 公众参与” 的闭环,才能让大模型在安全轨道上释放价值。
资深职业咨询规划师