意見: Merav Ozair 博士

2025 年は「AI エージェントの年」になるだろうと Nvidia CEO ジェンソン・ファン氏は語る 予測された 2024 年 11 月に実現。これにより、エージェント経済という新時代への道が開かれます。

Huang 氏は、AI エージェントを「デジタル従業員」と表現しました。 予測された いつか、Nvidia は 50,000 人の人間の従業員と 1 億人を超える AI エージェントを抱えることになり、おそらくどの組織でも同様の AI ワーカーの増加が見られることになるでしょう。

しかし、AI エージェントを「デジタル ワーカー」と表現するのは単純すぎて、このテクノロジーの波及効果を損なうものです。

AIエージェントの進化

私たちはテクノロジーをツールとして捉えてきましたが、エージェント型 AI は単なるツールではありません。エージェントティック AI は、単に単一のタスクを実行するだけではなく、テクノロジーとの関わり方に根本的な変化をもたらします。

人間の指示に依存し、複雑な多段階の推論や調整を独立して処理できない生成 AI (GenAI) とは異なり、エージェント AI は学習、適応、連携するエージェントのネットワークを使用します。 AI エージェントは相互に対話して学習することができ、自律的に意思決定を行い、経験から学習し、変化する状況に適応し、複雑な複数段階のアクションを計画する能力を備えています。つまり、単なる事後的なツールではなく、プロアクティブなパートナーとして効果的に機能します。事前定義されたコマンドを実行します。

最近の: サム・アルトマン氏は今年、初めてのAI労働者を期待している。 OpenAI を AGI に近づける

誰もが、そしてすべてのものは、 エージェントがいます それは彼らに代わって自律的に機能するでしょう。人々は日常生活や職業生活を支援するためにそれらを使用することができますが、組織はそれらをアシスタント、労働者、または労働者のネットワークとして使用することができます。 AI エージェントのために AI エージェントを配置することも考えられます。エージェント AI アプリケーションは無限であり、私たちの想像力によってのみ制限されます。

それはすべて非常にエキサイティングであり、そのメリットは計り知れないものになる可能性がありますが、リスクも同様です。 AI エージェント、特にマルチエージェント システムは、GenAI で経験した既存の倫理的、法的、セキュリティ、その他の脆弱性の多くを急激に悪化させるだけでなく、新たな脆弱性を生み出す可能性があります。

AI エージェントが新たなリスクレベルをもたらす

AI モデルはデータ駆動型です。エージェント AI では、個人データや専有データの必要性と依存度が飛躍的に増大しており、脆弱性やリスクも増大しています。これらのシステムの複雑さにより、プライバシーに関するあらゆる種類の疑問が生じます。

プライバシー

データの最小化や目的の制限などのデータ保護原則が確実に遵守されるようにするにはどうすればよいでしょうか?エージェント AI システム内での個人データの漏洩を回避するにはどうすればよいでしょうか? AI エージェントの使用を中止する場合、ユーザーは忘れられる権利などのデータ主体の権利を行使できるようになりますか? エージェントがいます?エージェントのネットワーク全体に「ブロードキャスト」することを期待して、「1 つの」エージェントとのみ通信するだけで十分でしょうか?

安全

AI エージェントは私たちのデバイスを制御することができますが、そのようなエージェントがコンピューター、スマートフォン、または IoT デバイス上で実行されている場合は、その潜在的な脆弱性を調査する必要があります。

セキュリティ上の脆弱性がある場合、侵害された 1 つのアプリケーションにその脆弱性が含まれることはありません。あなたの「人生全体」、つまり、すべてのデバイス上のすべての情報などが危険にさらされることになります。それは個人にも組織にも当てはまります。さらに、これらのセキュリティの脆弱性は、「侵害された」エージェントが対話した他の AI エージェント システムに「漏洩」する可能性があります。

1 人のエージェント (または一連のエージェント) が厳格なセキュリティ ガードレールに従っていると仮定します。たとえば、適切なサイバーセキュリティ対策の欠如により侵害された他者 (または一連のエージェント) とやり取りするとします。侵害されたエージェントが「ウイルス」として機能し、やり取りするすべてのエージェントを汚染しないようにするにはどうすればよいでしょうか?

このようなシナリオがもたらす影響は壊滅的なものになる可能性があります。この「ウイルス」は数ミリ秒で蔓延する可能性があり、場合によってはシステム全体が国家全体で崩壊する可能性があります。接続/相互作用がより複雑で絡み合うほど、崩壊の危険性が高くなります。

偏見と公平性

偏った GenAI システムの例はすでに見てきました。 AI エージェントのコンテキストでは、既存のバイアスがタスク実行チェーンを通じて伝達され、影響がさらに悪化します。

AI エージェントにバイアスが「組み込まれている」場合、どうすれば差別を防止したり、公平性を確保する法的規定を施行したりできるでしょうか? AI エージェントが特定の大規模言語モデル (LLM) に組み込まれた既存のバイアスを悪化させないようにするにはどうすればよいでしょうか?

透明性

人々はエージェントの意思決定プロセスを知りたいと思うでしょう。企業は、AI とのやり取りが透明性を確保し、ユーザーが必要に応じて介入したりオプトアウトできるようにする必要があります。

説明責任

エージェントシステム そして実行の連鎖では、責任をどのように定義できるでしょうか?特定のエージェントですか?それともエージェントシステム?そして、エージェント システムが相互作用するとどうなるでしょうか?適切なトレーサビリティとガードレールを構築するにはどうすればよいでしょうか?

LLM および GenAI アプリケーションにおけるこれらの問題に対処する方法はまだわかりません。より複雑なものを確実に保護するにはどうすればよいでしょうか?これらのリスクを超えて、地球規模であらゆる種類の社会的損害が発生する可能性があります。

包括的で責任ある AI の必要性

議員らはまだエージェント型AIシステムを検討していない。彼らは、LLM と GenAI アプリケーションをどのようにガードレールするかを理解するのにまだ苦労しています。エージェント経済の時代には、開発者、テクノロジー企業、組織、議員は「責任ある AI」の概念を再検討する必要があります。

組織またはアプリケーションごとに AI ガバナンスと適切な責任ある AI 対策を実装するだけでは十分ではありません。このアプローチはより総合的かつ包括的であるべきであり、安全でセキュアなエージェント AI に関する国際協力はオプションではなく、むしろ必須である可能性があります。

Merav Ozair 博士は、組織が責任ある AI システムを実装し、AI 関連のリスクを軽減できるよう支援します。彼女はウェイク フォレスト大学とコーネル大学で新興テクノロジーのコースを開発および教えており、以前はラトガース ビジネス スクールでフィンテックの教授を務めていました。彼女は、Web3 と AI のエンドツーエンド (および責任あるイノベーション) コンサルティング ショップである Emerging Technologies Mastery の創設者でもあり、ニューヨーク大学のスターン ビジネス スクールで博士号を取得しています。

この記事は一般的な情報提供を目的としており、法的または投資に関するアドバイスを目的としたものではなく、また、そのようなアドバイスとして受け取られるべきではありません。ここで表明された見解、考え、意見は著者単独のものであり、必ずしもコインテレグラフの見解や意見を反映または代表するものではありません。