米グーグルが人工知能(AI)使用に関する倫理規範を改定し、「兵器や監視活動へのAI使用をしない」としていた記述を削除しました。
改定前の規範では、人の殺傷を目的とした兵器や、国際規範を超えた監視活動にはAIを使用しないと明記されていましたが、今回の改定でその文言は消えています。
米オープンAIが2022年に「チャットGPT」を公開して以来、AI競争は激化しており、透明性や倫理性に関する法規制が追いついていません。グーグルはこうした状況下で、自らに課していた制約を緩める方針に転じたとみられます。
グーグルは4日、公式ブログで「複雑化する地政学的情勢の中、AIの主導権をめぐる世界的な競争が進んでいる。AI開発は自由、平等、人権尊重の価値観に基づき、民主主義国家が主導すべきだ」と強調しました。
さらに「価値観を共有する企業や政府、組織が協力し、人々を守り、世界の成長を支え、国家安全保障を促すAIを開発するべきだ」としています。
グーグルが最初にAI原則を公表したのは2018年で、AIが広く普及する前のことでした。当時の価値観は今回の改定で大きく変わったといえます。
18年には、米国防総省のクラウド事業の100億ドル規模の入札から撤退。「AI原則に沿うか確信が持てない」という理由でした。同社社員4000人以上が抗議の署名をし、数十人が辞職しました。