Googleは最近、生成AIの利用規約を更新し、ヘルスケアなどの「高リスク」分野におけるAIアプリケーションを明確に定義した。新しい規約により、顧客はこれらの分野での自動意思決定に Google の生成 AI を使用することが許可されますが、これは人間の監督が必要な場合に限ります。この動きは、一か八かの意思決定における AI の適用、および潜在的な偏見や倫理的問題の考慮に関連しているため、AI 分野で懸念を引き起こしています。 Googleの今回の動きは、AI応用に対する社会の懸念にある程度応えたものであり、AI技術応用とリスク管理のバランスをとる同社の取り組みを反映している。
Googleは最近、生成AIの利用規約を更新し、顧客はヘルスケアなどの「高リスク」分野での「自動意思決定」のために生成AIツールを導入できるが、人間の監督が必要であることを明確にした。火曜日に発表されたGoogleの「生成AI使用禁止ポリシー」の最新版によると、顧客はGoogleの生成AIを利用して、個人の権利に「重大な悪影響」を与える可能性のある「自動決定」を行うことができる。顧客は、人間による何らかの監視が存在する限り、Google の生成 AI を利用して、雇用、住宅、保険、社会福祉、その他の「高リスク」分野に関する意思決定を行うことができます。 AI の分野では、自動化された意思決定とは、事実データと推測データに基づいて AI システムによって行われる意思決定を指します。たとえば、ローン申請を承認するかどうか、または求職者を選別するかどうかをシステムが自動的に決定する場合があります。以前、Googleの規約草案は、一か八かの自動意思決定における同社の生成AIの使用を全面的に禁止することを示唆していた。しかしGoogleはTechCrunchに対し、顧客はいつでも自社の生成AIを利用して意思決定を自動化でき、人間の監視がある限り、リスクの高いアプリケーションであっても意思決定を自動化できると語った。 Googleの広報担当者は電子メールで問い合わせた際、「他の高リスク分野と同様、人間による監督要件は常に当社のポリシーに記載されている」と述べ、「(規約内の)一部の項目を再分類し、より明確にリスト化している」と述べた。より明確なイメージを顧客に提供するため、「Google の主要な AI 競合他社である OpenAI と Anthropic は、一か八かの自動意思決定における AI の使用について、より厳しい規制を設けています。たとえば、OpenAI は、信用、雇用、住居、教育、社会的スコアリング、保険に関連する自動決定に自社のサービスを使用することを禁止しています。 Anthropic は、法律、保険、医療、その他の高リスク分野での意思決定を自動化するために AI を使用することを許可していますが、これは「資格のある専門家」の監督がある場合に限り、顧客は AI を使用していることを開示する必要があります。この目的のために。個人に影響を与える意思決定を自動化するAIは、規制当局から厳しい監視の対象となっており、規制当局はこの技術が生み出す可能性のある偏った結果について懸念を表明している。研究によると、たとえばクレジットや住宅ローンの申請を承認するために使用されていた AI が歴史的な差別を永続させる可能性があることが示唆されています。非営利団体ヒューマン・ライツ・ウォッチは、「社会的スコアリング」システムは人々の社会保障支援へのアクセスを損ない、プライバシーを侵害し、偏った方法でプロファイリングを行う可能性があるとして、禁止を求めている。個人の信用や雇用の決定を行うシステムなど、高リスクの AI システムは、EU の人工知能法案に基づく最も厳しい規制に直面しています。これらのシステムのプロバイダーは、他の要件の中でも特に、データベースへの登録、品質とリスク管理の実行、人間の監督者の雇用、関連当局へのインシデントの報告を行う必要があります。米国では最近、コロラド州がAI開発者に「高リスク」AIシステムに関する情報を開示し、システムの機能と限界を要約した声明を発表することを義務付ける法律を可決した。一方、ニューヨーク市は、前年以内にツールの偏りについて監査を受けていない限り、雇用主が自動ツールを使用して候補者を雇用決定のために選別することを禁止している。今回GoogleはAIの利用条件を明確にし、AIアプリケーションの監督に対する同社の姿勢を示した。高リスク領域での自動化された意思決定を許可する一方で、手動による監督の重要性を強調することは、AI テクノロジーの応用の可能性を反映するだけでなく、潜在的なリスクに対する警戒心を反映します。
Google の AI 利用規約の更新は、手動による監督を強調する一方で、テクノロジー企業が AI ガバナンスにおいて直面する課題と探求も反映しています。 AI技術の急速な発展の中でイノベーションとリスクのバランスをどう取るかは、今後も引き続き注目される重要な課題となる。