柏林国际会议中心,庄重、古典而略显刻板的建筑风格,仿佛象征着欧洲悠久的理性传统与秩序精神。
然而,今天在这里举行的国际标准组织(i)和国际电工委员会(iec)联合起的一场关于“人工智能安全与伦理国际标准框架”
的特设工作组会议,却弥漫着一种不同于往常技术性会议的凝重气氛。
走廊里穿梭着更多西装革履的政府观察员、目光敏锐的媒体记者以及各种非政府组织的代表,他们低声交谈,表情严肃,使得整个会场更像是一个没有硝烟的外交战场或规则制定权的角力场。
会议室内,长长的条形桌按照惯例依次排开,代表着不同国家和区域组织的铭牌后,坐着表情各异、心怀各异的代表。
欧美代表团的席位显然经过了精心的安排,占据了会场最中心、最显眼的位置。
星火科技作为受邀的中国企业专家代表之一,席位被安排在相对靠侧的区域,何月山亲自带队,周倩和一位精通国际法与标准制定流程的副总裁陪同在侧。
会议一开始,担任联合主席之一的欧洲代表团团长,一位银梳理得一丝不苟、气质如同海德堡大学教授的德国人范·德·卡佩伦先生,便率先抛出了一份厚达数百页、细节极其繁复的草案文件。
“女士们,先生们,”
他语气笃定,带着德语区特有的精确感,“我们认为,ai安全的基石,在于坚定不移地贯彻‘预防性原则’。”
他着重强调了这个词,“即在面对可能造成严重或不可逆损害的风险时,即使目前缺乏充分的科学确定性,也应采取积极的、前瞻性的预防措施。
因此,标准必须设立极高的准入门槛和严格的事前审查机制。”
他的目光若有若无地扫过星火代表团的方向,“尤其是对于‘伏羲’这类具有高度自主性和复杂性的高级ai系统,应强制要求其核心代码、关键训练数据集以及算法决策逻辑,接受独立的、国际化的、第三方的审计与认证。
透明度,是信任的前提。”
这番言论,立刻得到了几位欧盟官员和部分以谨慎着称的环保、伦理ngo代表的附和。
其潜台词非常明确:对星火这类技术领先但源于非西方体系、其技术内核被视为“黑箱”
的企业,采取“有罪推定”
式的严格审查,用“安全”
和“伦理”
之名,行技术壁垒与市场保护之实。
紧接着,美国代表团的一位代表,一位来自硅谷某科技巨头的政策副总裁安德森先生,用一种更“灵活务实”
的口吻接过了话头。
“我们完全赞同欧洲同仁对安全问题的深刻关切和重视。”
他脸上挂着美式商业微笑,语较快,“但我们或许可以采取一种更精细化、更有效率的方式——即‘基于风险的分级治理’模型。”
他身后的幻灯片展示出一套复杂的、量化的风险评估矩阵和流程图,“不同应用场景的潜在风险等级截然不同,不应采取一刀切的监管方式。
例如,用于医疗影像辅助诊断的ai系统,与用于社交媒体内容推荐的ai系统,其监管强度和审查重点理应有所区别。
标准应侧重于对自动驾驶、金融风控、关键基础设施等高风险应用的严格约束,同时为消费级、工具型等低风险领域的创新留出足够的呼吸空间和灵活性。”
这套说辞,看似比欧洲方案更符合市场逻辑和创新需求,实则旨在维护其巨头企业在消费互联网、云计算等现有优势领域的既得利益和主导地位,同时巧妙地将监管压力和公众视线,引向星火科技重点布局的工业自动化、能源系统、智慧城市等被其定义为“高风险”
的领域。
两大阵营的代表先后言,看似观点各异,侧重不同,但其共同指向的战略目标却隐约重合——限制星火模式的全球扩张势头,确保ai领域未来的规则制定权和话语权,牢牢掌握在传统科技强权手中。
当轮到星火科技言时
