AI規制を世界の動向から考える:制御と活用の道
AI規制やAI関連法案の整備が進んでいます。
EUでは「AI Act」が可決され、諸外国でAI規制の一律化や法整備が進められています。
日本でも、G7広島サミットにおいてAI規制が議題となり、「広島AIプロセス」の創設が年内にも予定されています。
AIそのものの整備やAI生成物に対する法律は、緩過ぎればサイバーセキュリティ上の不安が払拭できませんが、規制が厳しすぎると産業界でのAI活用が阻害されてしまいます。未知の可能性を持つAIをどのように人類のために役立てるか、我々はその岐路に立っているといえます。
本稿では、世界各国のAI規制を紹介すると共に、7月から施行されるニューヨーク市のAI関連法についてや、マイクロソフトやSAPなどのグローバルIT企業が提供する新しいAIツールについて触れ、AI関連のサイバーセキュリティをどのように捉えるべきか探っています。
■無料メルマガ:デジタルシフトのヒントが届く■
AI規制を巡る世界の動向
AI規制やAI関連法案の整備は、ChatGPTの登場によってますます強く求められるようになっています。
ChatGPTを生み出したサム・アルトマンはAI研究をリードする米国の起業家ですが、米国でもこれまで州ごとや産業ごとに検討されていたAI関連規制を連邦レベルの取り組みに一律化する動きが見られます。アルトマン自身もAIに対する監督と認可の権限を持つ連邦機関を創設すべきという証言を行い、広島で開催されたG7サミットでもAI規制が中心的なトピックのひとつとなりました。
なお、中国では生成AIの規制が導入され、反体制的な文章の生成を禁止するといった言論統制が敷かれています。
ヨーロッパでも、AI規制法案である「AI Act」を筆頭に、各国がAIやAI生成物に対する規制や法案の策定に動いています。
EUでAI規制法案が採択
EU諸国では、AI規制やガイドラインの議論が進んでいます。
欧州議会は5月にAIを規制する法案「AI Act」を可決しました。
この法案は、ユーザーのプライバシーや著作権を保護し、差別や侵害的行為を禁止することを目的としています。AI Actは、AIによるリスクの大きさを、最小リスク、限定リスク、ハイリスク、許容できないリスクという4つに分類しました。このハイリスクに該当するAI技術(選挙運動期間中の投票者、健康、セキュリティ、環境に影響を与える技術)については、特に透明性を保つよう規則に従う事を、IT企業に求めるとしています。
この法案が成立すると、GoogleやMeta、Microsoft、OpenAI等の企業にも大きな影響を与える可能性があります。
また、6月14日の本会議において、AI生成物に関してAIによる生成を明記する等の規制を盛り込む修正案も可決されました。
違反した場合は、最大4,000万ユーロ(約60億円)もしくは年間売上高7%のどちらか高い方が罰金とし徴収されるとしています。
EUは協議を重ねて規制法の最終案を作成し、年内の合意を目指します。ヨーロッパでは、生成AIに対する興味は高まっているものの、規制強化の必要性を主張する人が多く、欧州議会だけでなく、欧州各国も国独自にAI規制の法整備を急いでいます。
イギリスは、2023年秋にも主要国や大手IT企業、研究者を招聘してAIサミットを開催し、AI利用に関するリスク評価や安全対策を議論する予定です。
ドイツは、既に生成AIをトピックとした公聴会を開き、フランスも、個人のプライバシーを重視したAIシステム実装の行動計画を公表、イタリアは個人情報保護の確保を理由にChatGPTの使用を一時禁止しました(現在はChatGPTに改善が見られたとして使用可)。
G7広島サミットでもAIが議題に
5月に開催されたG7広島サミットでも、生成AIの国際的ガイドライン策定が議題になりました。
年内には、OECD(経済協力開発機構)、GPAI(AIに関するグローバルパートナーシップ)とが協力して、AIガバナンス、著作権を含む知的財産権の保護、AI技術に関する透明性の確保といった項目を盛り込んだ広島AIプロセスが創設される予定です。
G7デジタル・技術大臣会合閣僚宣言では、人間中心の信頼できるAIを推進する事、民主主義や表現の自由を損なうAIの誤用や乱用に反対するという立場が改めて述べられました。
また、G7教育大臣会合の合意内容をまとめた富山・金沢宣言では、生成AIの教育への活用における課題意識と、デジタル教育技術の利用に伴うリスク軽減の重要性についてが述べられました。
ニューヨーク市の事例
ニューヨーク市政府は、2021年には既にAIに関する法律を成立させています。
その法律は、AIを人材採用や昇進の判断に使用する企業に対して、選考の自動化システムを使用している事を求職者・従業員にあらかじめ通知しておく事を義務づけるというもので、7月から実際に施行されます。
使用しているAIシステムは、偏りのない判断をしているかどうか、年に一回の監査を受ける必要があります。また、どのようなデータを元に判断しているのかを尋ねられた場合は回答する義務があり、違反した場合は罰金を支払わなければなりません。
このように具体的な活用シーンを明確にしたAI規制は、先進的な例として世界から注目されています。
業界団体からは現実的ではないと言う声が上がり、労働者からは規制は企業の利益を優先しすぎて、緩すぎると言う批判が上がる本規制ですが、まず施行されてみなければ、どのように機能するか正確な判断は難しいでしょう。
急速なスピードで進化・普及するAIに法整備が追いつくかどうか、施行後も注目したいところです。
AI規制は開発現場に影響を与えるか
AIは、開発現場では既に当たり前に活用されています。
膨大なデータを、高いセキュリティレベルで管理する必要がある政府機関に特化したAIツールが新たに登場する等、AIの活用は様々な次元で進んでいます。
AIの研究は1950年代頃から行われてきましたが、AIを取り巻く世界の状況はこの数ヶ月で今までの何年分も一気に動いたと言っても過言ではないでしょう。
これらの状況はAI規制によって変化が起こるのでしょうか。
生成AIをコーディングツールに
米国の大手ソフトウェア開発会社の調査によると、米国の開発者の92%は既に仕事や個人のプロジェクトでAIコーディングツールを使用しているということです。
そして、開発者のうち70%はAIが大きなメリットをもたらしていると考えていて、仕事以外でのみ(つまり趣味や余暇の時間にのみ)ツールを使用していると回答した開発者は6%でした。すなわち、この数字を見るならば、ツールの使用者のほとんどは仕事のために活用している事になります。
ツールを活用する目的は、コードの品質向上、インシデントの低減、少ない工数でクオリティの良いものを作るため等で、AIを使用したコード生成はそうした目的を達成する手段に過ぎないと専門家は分析しています。
巨大IT企業が手がけるAIツール
マイクロソフトは、政府機関向けに新しい「Azure
OpenAI Service」を発表しました。
これにより、政府や官公庁は、安全な環境で新しいアプリケーションを構築したり、既存のアプリケーションをOpenAIのGPT-4、GPT-3、またはEmbeddingsに接続したりする事ができます。
また、ビジネスアプリケーションを扱う大手企業SAPは、「ビジネスAI」の生成AI分野で精力的な活動を展開し始めました。
SAPは20年にAI部門を再編し、AIを組み込む戦略を行なっています。現在、130以上のAIシナリオを提供しており、ファイナンスや支出管理、顧客関係管理(CRM)といったビジネスプロセスに特化したAI組み込み型のアプリケーションを発表しています。
AIセキュリティがどのように影響するか
なお、こうしたツールの提供が開始される事で、AIセキュリティつまり、AIに対する攻撃への耐性を学術的、産業的に検討していく必要性が高まっています。
AIには、自律尊重原則、正義原則、無危害原則、善行原則、理解可能性原則という5つの原則があります。AIセキュリティは「信頼できるAI」を実現するためのものなので、3つ目の無危害原則と関係しています。これをどのように満たしていくか、どの状態を満たしていると判断するかは未知数であり、欧州AI規制法案でも重要視されている点です。
未知の領域をどう制御するか
AIの学習と活用の可能性は、未知数です。
ゆえに欧州議会はAIの規制を急務と考えており、各国も概ねEUと同じく「大いなる力をどのように制御するか」という問題に頭を悩ませています。
例えば、AIが間違った答えを導き出した時にそれに気づけるか、また生成AIが悪用された時にどのような防御策を取るべきか、といった課題に対しては、AIそのものが現状はブラックボックスである事を理解しておく必要がありそうです。
サイバー攻撃とセキュリティ
カナダの企業が公表した最新の調査レポートによって、サイバー攻撃の標的になりやすいのは、金融機関、医療機関、食品小売業界であり、全攻撃の60%はこれらの業界がターゲットになっている事が明らかになっています。
もっとも頻繁に攻撃されているのは、米国、ブラジル、カナダ、日本等で、攻撃を自動化するAIの使用も拡大していると報告されています。
検証と制御
AIは、プログラム・エラーや学習データの偏りといった条件下で、AI使用者の意図と異なる結果を導き出す可能性があります。もっとも懸念されるのは、AIが制御を失ったと把握できないままに、生成された内容を開発者や利用者が盲信してしまうことです。
研究者は、短期間にAI生成物が急増した結果として「AI生成コンテンツをAIが学習するループ」が発生し、AIの学習モデル崩壊が進行していると警告を発しています。
あたかも人間が作り出したデータであるかのようにジェネレーティブAIがAI生成物を学習データとして認識してしまうこの事象を、研究者は「データの崩壊」と呼んでいます。
崩壊の速度を緩めて適切なモデルを維持するためには、人間が作成したデータを適切に含める、新しいクリーンなデータセットを用意するといった対策が求められます。
また、AIシステムに対する何らかのサイバー攻撃が行われた場合、制御を失ったAIに触れた多くの人が誤った情報を信じたり不利益を被ったりする恐れがあります。AIが制御されていないと、入力した機密データが知らずに漏えいしていたというインシデントも起こり得ます。
これを防ぐには、AIを制御するシステムを構築する事、そして出力された情報を盲信しない事が必要です。
まるで生身の人間のように自然な対話ができるAIは、社会に驚きをもって迎えられていますが、サイバーセキュリティに関する課題を浮き彫りにする存在としても注目されています。生成AIを悪用したフィッシングや偽情報(フェイクニュース等)が生成される懸念があるため、これを防ぐ対策を講じていかなければなりません。
生体AIを用いた犯罪はこの先も巧妙化すると、専門家は予測しています。
これを防御するためには防御側も生体AIを活用して技術で対抗する事、また、攻撃を無力化するような対策を講じる事が重要だと考えられています。
SFの中にしか存在しなかったような高度なAI技術が、急速にビジネスと暮らしに入り込んでいる今、技術革新も法整備もその進化のスピードに合わせて進めていく事が求められているのではないでしょうか。