《纽约时报》披露:OpenAI 2023年安全漏洞未曾公开
尽管《纽约时报》报道OpenAI存在安全漏洞隐患,但该人工智能公司并未告知联邦调查局、执法部门或公众。
《纽约时报》在7月4日的报道中披露,人工智能公司OpenAI在2023年遭遇了一起安全漏洞,但选择未对外公布此事件。据悉,该公司的高管们在4月的内部会议中提及了这一安全事件,却未对外公开,理由是攻击者没有接触到客户或合作伙伴的信息。
此外,OpenAI的管理层同样认为这次安全事件不会对国家安全构成威胁,因为他们判断攻击者是个人行为者,并没有与任何外国政府有关联,因此也没有向联邦调查局或其他执法机构报告此事。
报道还指出,攻击者得以入侵OpenAI的内部通讯系统,并从员工在在线论坛上的讨论中窃取了公司人工智能技术设计的细节信息。然而,攻击者并未能够接触到OpenAI用于存放和构建人工智能的关键系统或代码。
据称,此次《纽约时报》的报道是基于两名了解情况的消息人士提供的信息。
前员工的关切与公司的回应
《纽约时报》报道指出,在安全漏洞事件发生后,OpenAI的前研究员Leopold Aschenbrenner采取了行动,他向公司董事会提交了一份备忘录。在备忘录中,Aschenbrenner强调了加强安全措施的紧迫性,特别是要防止包括中国在内的外国势力窃取公司的商业机密。
对此,OpenAI的公司代表Liz Bourgeois回应称,公司理解Aschenbrenner的担忧,并承诺将持续投入资源和努力,致力于安全人工通用智能(AGI)技术的开发。然而,Liz Bourgeois 对Aschenbrenner提出的一些观点持保留态度,并对其中某些细节表示质疑。他指出公司在Aschenbrenner加入前就已经处理了相关安全问题,并已就此问题与董事会进行过沟通处理。
同时,Aschenbrenner还声称,他之所以被解雇,是因为信息泄露以及政治因素。但 Bourgeois 则明确表示,他的离职与他对安全问题所表达的担忧无关。
OpenAI的安全主管Matt Knight向《纽约时报》重申了公司对于安全的坚定承诺。他指出,OpenAI在推出ChatGPT之前就已经在安全领域进行了投入,这表明公司对可能的安全问题有着前瞻性的考虑和准备。Knight也坦诚地承认,人工智能技术的发展确实伴随着一定的风险,但他同时强调,公司正在积极地识别这些风险,并致力于理解它们,以便更好地应对和减轻潜在的威胁。
《纽约时报》曾就版权问题对OpenAI和微软提起诉讼,声称这两家公司未经授权便使用了其内容,来训练自家人工智能模型,这之间可能存在利益冲突。然而,OpenAI对《纽约时报》的指控表示异议,并认为其诉讼缺乏合理的事实依据。
结语:
人工智能领域的安全问题不容忽视。无论《纽约时报》的报道是否完全属实,它都提醒了我们,无论是OpenAI还是其他人工智能的科技公司,都应将安全作为发展的核心,采取预防、检测和修复措施,同时确保透明度,及时向公众披露安全事件。
同时,我们应警惕媒体报道可能存在的动机问题,特别是在版权纠纷背景下。在此呼吁媒体保持客观公正,在涉及版权问题纠纷时,应通过法律途径进行解决。
最后,行业参与者、媒体和监管机构需共同努力,以推动技术以负责任的方式健康、可持续地发展。