陆小华:OpenAI解雇事件冷思考:以规则约束促进智能向善
青年记者 | 2023-12-16 11:41:03原创
来源:青年记者
作者:陆小华(天津大学新媒体与传播学院院长,讲席教授;天津大学网络空间国际治理研究基地负责人;本刊学术顾问)
来源:《青年记者》2023年第23期
导 读
2023年11月,因团队价值观冲突而发生的OpenAI解雇事件再次引起社会对人工智能发展的关注和风险担忧。
2023年11月第三个周末发生的OpenAI董事会突然解雇董事会主席和CEO事件,引起全世界关注。虽然有分析认为这是因为首席执行官山姆·阿尔特曼(Sam Altman)正推动的GPT商业化运用与OpenAI非营利组织的初衷有冲突,但正在迅猛发展的人工智能可能带来的风险更应引起人们警惕。
人类社会存在的重要前提,是基于人类主体性来构建相应规则。在人工智能被广泛运用时,如何确保智能向善?如何维护人类主体性?如何与人工智能共生?这是人类社会面临的重大课题。在这些课题的探究中,媒体不仅应当高度关注人工智能的发展与风险防范,而且应当在推动全球人工智能治理中扮演更重要角色、体现更大作用、展现更大作为。
价值观冲突还是风险信号:OpenAI事件引发的诘问
当地时间2023年11月17日,人工智能公司OpenAI发布声明,宣布公司首席执行官山姆·阿尔特曼将离开公司,公司现首席技术官米拉·穆拉蒂被任命为临时首席执行官。OpenAI联合创始人格雷格·布罗克曼 (Greg Brockman) 也将辞去董事会主席职务,但继续担任公司职务。OpenAI在声明中称,阿尔特曼先生与董事会的沟通中并不一贯坦诚,阻碍了其履行职责的能力。成立之初,OpenAI希望作为一家非营利的人工智能研究公司“确保通用人工智能造福全人类”。2019年,在非营利的OpenAI之下,成立了一家“利润上限”(caped-profit)公司,即股东的投资回报被限制为不超过原始投资金额的100倍,并要在非营利OpenAI的董事会治理下运作。首席科学家苏茨克维是OpenAI的联合创始人,2002年从以色列移居加拿大,在“深度学习之父”杰弗里·辛顿指导下获得博士学位,在谷歌与团队合作创建了Seq2Seq算法。2015年离开谷歌加入OpenAI。2022年,苏茨克维当选为英国皇家学会院士。此前曾有报道称,苏茨克维在公司内部成立了一个“超级校准”团队,以确保GPT-4的未来版本不会对人类造成危害。[1] 11月19日下午,在网友质疑人们过于一致地支持阿尔特曼的推特帖子下,曾与阿尔特曼等人一同创办OpenAI的埃隆·马斯克(Elon Musk)回复:“非常重要的是,公众应该知道为何董事会如此坚决地做出决定。如果这关乎AI安全,那将会影响整个地球。”[2]
阿尔特曼重归OpenAI的谈判一波三折。阿尔特曼曾在社交媒体平台晒出他戴着OpenAI访客的胸牌,说是第一次也是最后一次佩戴它。据美国福布斯新闻网报道,当地时间2023年11月20日,OpenAI公司超过700名员工签署联名信,要求该公司董事会辞职,并恢复阿尔特曼和布罗克曼的职位,不然他们将加入微软的人工智能研究部门。[3]当地时间11月19日,微软首席执行官纳德拉在社交媒体平台上宣布,阿尔特曼和布罗克曼将加入微软,领导一个新的高级AI研究团队。
但当地时间11月21日晚,OpenAI宣布已经原则上达成协议,阿尔特曼重返公司担任首席执行官,并组建由董事会主席布莱特·泰勒(Bret Taylor,Salesforce前联合首席执行官)、劳伦斯·萨默斯(Lawrence Henry Summers,曾任美国财政部长)、亚当·德安杰洛(Adam D’Angelo,Quora首席执行官兼现任董事)等组成的新董事会。[4]之后,阿尔特曼在社交媒体平台上发文称“我爱OpenAI”,并称当他决定加入微软时,“很明显这曾是对我和团队最好的选择”“有了新的董事会和萨蒂亚的支持,我期待着回到OpenAI,并与微软建立强大的伙伴关系”[5]。布罗克曼当天也在同一社交平台上发文称,“今天取得了惊人进展。我们将回归且比过去更强大、更团结”[6]。
OpenAI事件的一波三折至此未必完全结束。更值得探究的是,这个团队究竟为什么产生分歧。有报道说,起因是因为几位研究人员在此事件四天前(11月14日)给董事会发了一封信,表示一项新发现可能威胁人类。据透露,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)11月22日曾告诉员工,一封关于AI取得突破的信件促使董事会采取了解雇行动。这项技术由OpenAI前首席科学家苏茨克维牵头,和使用计算机生成的数据来帮助训练大模型有关。此前大模型训练所用数据大多源于网络个人数据。OpenAI原研究总监雅库布·帕乔基(Jakub Pachocki)和高级研究人员西蒙·西多尔(Szymon Sidor)在该技术基础上构建了模型“Q*”(Q-Star),该模型能够解决此前从未见过的数学问题。一些内部人士向媒体透露,这或将为OpenAI实现超级智能(即通用人工智能,AGI)提供可能性。阿尔特曼在16日曾公开透露过这项技术进展,称其能够“揭开未知的面纱,推动发展的前沿”。据透露,苏茨克维对该技术持保留态度。[7][8]
马斯克关注OpenAI的角度也是值得深思的。在回应一位推特(X)用户关于OpenAI新董事会需要有女性成员的帖子时说:“重要的是要有深刻理解人工智能并勇于面对山姆的董事。这关乎人类文明。”[9]
智能向善与规则约束:人工智能治理攸关全人类命运
如何与人工智能共生,在与人工智能共生的时代如何维护人类主体性等问题,是在发展人工智能过程中必须回答好的。正是因为人类社会存在的重要前提,是基于人类主体性构建相应规则,当有人工智能进入人类社会,影响政治、经济、社会、文化运行并深刻影响人本身,可能成为人类社会一种特殊力量的时候,如何维护人类主体性就不仅是一种学术诘问,也成为关乎人类社会生存的重大现实问题。正是在这个意义上,《全球人工智能治理倡议》所强调的“人工智能治理攸关全人类命运”就不仅是一种论断,更是一种警醒。
正因为人工智能发展既给世界带来新的巨大机遇,也可能带来难以预知的各种风险和复杂挑战;正因为人工智能的复杂机制和自我学习使得其生成结果的产生机理、“涌现”的触发机制等难以完全解释,所以,人们更希望用强有力的法律规则、有共识的伦理规则等约束人工智能的发展与运用,使得“智能向善”能够实现。
如何实现“智能向善”?
第一,需要包括政府部门、新闻媒体、学界等在内的社会主体从统筹把握人工智能发展与安全的高度观察、认识、报道、监督人工智能的发展。不仅要在关注、支持人工智能技术发展和应用的同时,对人工智能的发展方向、可能风险、现实与潜在危害、是否存在误用滥用等问题保持高度警惕;而且要在密切跟踪技术发展形势的同时进行风险评估,提出警示,对监管政策设计提出有益建议。人们对OpenAI事件的关注、议论与思考,其深层动因既包括对人工智能明星公司和其发展方向的关注,更包括对人工智能技术发展的同时是否对风险有足够评估、是否有可控性的警觉和担忧。
第二,需要对“智能向善”之“善”有清晰的认知。系统领会中国提出的《全球人工智能治理倡议》,可以加深对何谓“智能向善”之“善”的理解。中国倡议的第一条,即是“发展人工智能应坚持‘以人为本’理念”。“以人为本”即是“智能向善”的根本之“善”。其紧接着阐述的内容是“以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展”。这体现了“智能向善”之“善”的重要内涵, “增进人类共同福祉”“尊重人类权益”“有利于人类文明进步”,显然是“智能向善”之大“善”,是维护人类主体性、保障社会安全的基础。之后强调“支持以人工智能助力可持续发展,应对气候变化、生物多样性保护等全球性挑战”,强调了“智能向善”应用之“善”首先应当体现在服务人类共同利益,服务于人类共同面对的全球性挑战。
“智能向善”之“善”的核心内涵,是全人类的共同价值。《全球人工智能治理倡议》阐述“智能向善”时强调人工智能发展要“符合和平、发展、公平、正义、民主、自由的全人类共同价值”。中国在多个重要文件和领导人在国际场合的重要讲话中,多次强调“和平、发展、公平、正义、民主、自由的全人类共同价值”。《全球人工智能治理倡议》再次强调,实际上也从人类共同价值层面定义了什么是“智能向善”之“善”。
第三,需要以规则制约实现“智能向善”。《全球人工智能治理倡议》提出,发展人工智能应坚持“智能向善”的宗旨。首先强调“遵守适用的国际法”。这实际上体现了中国对全球人工智能治理的原则立场之一,即遵守现有国际法,同时 “逐步建立健全法律和规章制度,保障人工智能研发和应用中的个人隐私与数据安全,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为”。以规则约束实现“智能向善”,需要全球协同合作。中国对全球人工智能治理的原则立场是在联合国框架下推进全球人工智能治理。这既包括中国“积极支持在联合国框架下讨论成立国际人工智能治理机构,协调国际人工智能发展、安全与治理重大问题”;也包括“通过对话与合作,在充分尊重各国政策和实践差异性基础上,推动多利益攸关方积极参与,在国际人工智能治理领域形成广泛共识”;还包括“增强发展中国家在人工智能全球治理中的代表性和发言权,确保各国人工智能发展与治理的权利平等、机会平等、规则平等”;更包括“面向他国提供人工智能产品和服务时,应尊重他国主权,严格遵守他国法律,接受他国法律管辖”。
第四,需要人类社会明确采取行动保证“智能向善”。包括《全球人工智能治理倡议》所强调的“共同防范和打击恐怖主义、极端势力和跨国有组织犯罪集团对人工智能技术的恶用滥用”。“智能向善”之“善”的底线,是防止“恶用滥用”。“恶用”,这个很少出现在政府正式公文中的术词,在《全球人工智能治理倡议》中使用,正是针对人工智能领域可能出现的问题。“滥用”可能伤及“智能向善”的宗旨,“恶用”则必然伤及。这也包括“各国尤其是大国对在军事领域研发和使用人工智能技术应该采取慎重负责的态度”。中国积极推进《全球人工智能治理倡议》,2023年11月中美元首会晤的重要成果之一,就是“双方同意建立人工智能政府间对话机制”。[10]在《全球人工智能治理倡议》中,还提出了一系列明确的“反对”。包括“反对利用人工智能技术优势操纵舆论、传播虚假信息,干涉他国内政、社会制度及社会秩序,危害他国主权”;“反对以意识形态划线或构建排他性集团,恶意阻挠他国人工智能发展。反对利用技术垄断和单边强制措施制造发展壁垒,恶意阻断全球人工智能供应链”,等等。
第五,需要强化监管以保证规则能够发挥作用,实现“智能向善”。《全球人工智能治理倡议》提出的基本原则就是“确保人工智能始终处于人类控制之下”。为此,要“推动建立风险等级测试评估体系,实施敏捷治理,分类分级管理,快速有效响应。研发主体不断提高人工智能可解释性和可预测性,提升数据真实性和准确性,确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术”。
网络空间治理与人工智能治理:不可回避的重大课题
从科技界对通用人工智能的追求和技术发展逻辑观察预测,人工智能接近甚至超过人类智能是可能的,而且随着大模型“涌现”能力不断提升,人工智能接近甚至超过人类智能的概率正在变大。也是在这个意义上,学者才会对未来学家所说的“2029年,人工智能或将超过人类智能;到2045年,人脑将与人工智能、智能网络等全面融合,轻松获取全人类所有的知识,奇点到来”等观点,给与比较认真的对待。[11]
网络与人工智能对人类物质与精神生活影响如此巨大,使网络空间治理与人工智能治理成为不可回避的重大课题。对此,不仅数字新闻学研究要把这个重大课题纳入研究重点,新闻媒体也应当高度关注人工智能发展与风险防范,而不只是单纯报道热点事件。
实现“智能向善”,更基础的制约力量,是人工智能的研发者、投资者、使用者和监管者对“智能向善”有强烈的认同和行动上的遵循。相对而言,法律不过是成文的道德,道德是内心的法律。只有研发者、投资者、使用者和监管者等从内心认同“智能向善”,才可能在行动上遵循,才可能在发现风险时果断停手、阻止,以避免不可预见的后果发生。正因如此,《全球人工智能治理倡议》提出,要“坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切”。
在促进认同、形成“智能向善”共识方面,在推动全球人工智能治理过程中,新闻媒体可以扮演更重要角色、体现更大作用、展现更大作为。
【本文为国家社会科学基金重大项目“数字新闻学理论、方法、实践研究”(批准号:20&ZD317)阶段性成果】
参考文献:
[1]马斯克呼吁 OpenAI 公布解雇阿尔特曼的原因[EB/OL].DoNews,(2023-11-20).澎湃新闻,https://baijiahao.baidu.com/s?id=1783050865219092477&wfr=spider&for=pc.
[2]马斯克喊话OpenAI公布开除奥特曼原因:如果关乎AI安全,那将影响全球[EB/OL].(2023-11-20).澎湃新闻,https://baijiahao.baidu.com/s?id=1783054923862624264&wfr=spider&for=pc.
[3]OpenAI超700名员工要求董事会辞职,不然就去微软[EB/OL].(2023-11-21).中新社,https://www.chinanews.com/gj/2023/11-21/10115283.shtml.
[4]OpenAI宫斗大结局:奥特曼将重返公司任CEO,美国前财长加入新董事会[EB/OL].https://baijiahao.baidu.com/s?id=1783243163900427141;OpenAI:阿尔特曼将重返公司担任CEO 组建新董事会[EB/OL].(2023-11-22).澎湃新闻,https://baijiahao.baidu.com/s?id=1783253355827555148&wfr=spider&for=pc.
[5]快讯!奥特曼回应重返OpenAI担任CEO:我爱OpenAI[EB/OL].(2023-11-22).环球网,https://www.thepaper.cn/newsDetail_forward_25385610.
[6]OpenAI联合创始人布罗克曼回应“奥特曼回归”:我们将比过去更强大团结[EB/OL].(2023-11-22).环球网,https://baijiahao.baidu.com/s?id=1783246279495345176&wfr=spider&for=pc.
[7]取得“神秘的重大突破”!就在内乱前夕,OpenAI研究人员向董事会发了一封信[EB/OL].(2023-11-23).华尔街见闻,https://wallstreetcn.com/articles/3702649.
[8]OpenAI解雇奥特曼前收到警告:AGI项目进展威胁到人类[EB/OL].(2023-11-24).https://www.163.com/dy/article/IKA2FPBD0511CP73.html.
[9]马斯克称OpenAI新董事会的组建关乎人类命运[EB/OL].(2023-11-23).新浪,https://finance.sina.com.cn/stock/usstock/c/2023-11-23/doc-imzvqiex4731276.shtml.
[10]王毅介绍中美元首旧金山会晤达成的共识和成果[EB/OL].(2023-11-16).https://baijiahao.baidu.com/s?id=1782707069526606442&wfr=spider&for=pc.
[11]方师师.智能向善:推动构建我国人工智能科技伦理建设创新的“行动者网络”[EB/OL].(2023-11-03).人民网,http://finance.people.com.cn/GB/n1/2023/1103/c458047-40109804.html.
本文引用格式参考:
陆小华.OpenAI解雇事件冷思考:以规则约束促进智能向善[J].青年记者,2023(23):81-83.
责任编辑:范君