谷歌调整AI政策,放宽不用于武器和监控承诺
2025年2月5日,据《The Information》报道,谷歌宣布正式终止其六年前作出的承诺,即不将人工智能用于武器或监控用途。该公司最新的人工智能政策声明显示,谷歌将通过“实施适当的人工监督、尽职调查和反馈机制”来负责任地使用AI技术,以确保其符合用户需求、社会责任以及广泛接受的国际法和人权原则。这一政策调整标志着谷歌在人工智能伦理上的一个重大转变。
谷歌的政策转变六年前,谷歌做出了不将人工智能用于军事和监控领域的承诺。当时,谷歌表示该公司的人工智能技术应当专注于对社会有益的用途,避免被用于军事化或侵犯隐私的场景。随着技术的不断进步和全球AI应用的广泛扩展,谷歌此时决定对这一承诺进行修改。谷歌研究部高级副总裁James Manyika和人工智能负责人Demis Hassabis在一篇声明中表示,人工智能的发展需要在全球范围内进行更广泛的探索和适应,民主国家应该在核心价值观的指导下,引领人工智能的健康发展。
这意味着,谷歌将放宽之前的政策,允许其AI技术用于更多的场景,包括可能涉及到安全和军事的领域。然而,谷歌强调,将继续确保所有AI应用符合适当的监管框架,并在使用过程中确保充分的人工监督,确保其使用不会对社会造成不利影响。
人工智能与伦理的冲突谷歌的这一政策调整引发了广泛的讨论,特别是在人工智能技术迅速发展的背景下。此前,人工智能在军事领域的潜力就已成为全球争议的焦点。随着技术的不断进步,AI在军事、监控等领域的应用越来越广泛,其对隐私、伦理和安全的潜在威胁也引起了社会的关注。许多专家认为,尽管AI在许多领域具有巨大的潜力,但其滥用可能带来无法预测的后果。
谷歌此前的承诺曾受到全球范围内的一些支持,尤其是来自人权组织和技术伦理学者的支持,他们认为AI技术应当以造福人类为核心目标。然而,随着国际政治局势的变化,人工智能的应用前景变得更加复杂。一些分析人士认为,谷歌此举是为了顺应技术发展的需求,以及应对全球竞争中的压力,特别是在中国和其他国家在AI技术军事化方面取得的进展。
OpenAI的类似调整值得注意的是,谷歌的这一调整与OpenAI去年的政策调整相似。OpenAI曾承诺其人工智能技术不会用于军事用途,但在去年初也宣布将逐步调整其政策,允许其技术被应用于更多的场景,包括军事用途。随着全球AI技术的快速发展,越来越多的科技公司开始面对技术伦理和商业利益之间的平衡问题。
未来展望谷歌的这一政策变化对全球AI行业的影响深远。随着人工智能技术的普及和发展,未来的AI应用将不仅限于商业和科学研究领域。如何在促进技术进步的同时,确保其对社会、政治、经济等各方面的负责任影响,成为全球科技公司亟待解决的问题。
从谷歌的这一调整可以看出,人工智能的未来将更加注重与国际法和人权的兼容性,尤其是在可能涉及到军事和监控的应用领域。尽管政策已经发生变化,但如何平衡技术发展与伦理规范,将是科技公司和全球监管机构面临的重要挑战。