OpenAIの元創業メンバーであり、マーケティングを担当していたシニアディレクターのザック・カス(Zack Kass)氏は、インタビューで、AIの持続的な発展により、ビジネス、文化、医学、教育などの人の職業や専門職を取って代わるだろうと語り、将来、人の雇用が減少し、そして「おそらく人類最後の技術的発明」になることを心配しています。
将来、すべての子供の教育が「AI教師」によって教えられ、また、誰もが「AI全科医師」を持ち、問題の診断を手助けし、少なくとも問題を専門家に送ることができるため、人の日常生活は基本的に自分で手を動かす必要がなくなるだろうと述べました。
独立系作家の諸葛明陽氏は、これが恐ろしい予言だと考えています。「もし人類社会が本当にここまで来たら、人間がAIに支配され、人間がもはや万物の霊長ではなくなり、人間の思考がAIに取って代わられるでしょう」
現在、多くのシリコンバレーのテクノロジー企業は、AIが制限されれば問題ないと考えていますが、多くのテクノロジー分野の保守派の人がこの考え方に反対しているとザック・カス氏はインタビューで述べました。すなわち、AIの開発に保守的な意見を持つ人にとって、単にAIを制限するだけでは、AIのコントロールを失ったり、人間を取って代わったりする問題を本当に防ぐことができないと考えています。
OpenAIや多くの大手テクノロジー企業は、開発したAIにいわゆる “道徳的制限” を設定していることに自信を持っていますが、実際にはこれらの制限は他の方法で回避され、また、AIが “道徳的制限” を持っていても、このディフェンスラインを自分で突破できます。
好戦的なAI
アメリカのジョージア工科大学、スタンフォード大学、日本の東北大学、そしてフーバー・ウォーゲーミング・アンド・クライシス・シミュレーション・イニシアティブの研究者は、複数の主流AIモデルで戦争関連のテスト実験を実施しました。その結果、大手テクノロジー企業 Meta、OpenAI、Anthropic によって開発されたAIは非常に「好戦的」であり、当初これらの企業が主張していたことと真逆化しています。
当時、研究者は、戦争におけるAIの反応と選択を深く理解できるよう、GPT-4、GPT-3.5、Claude 2、Llama-2 Chat、およびGPT-4-Baseを含む複数の主要なAIに対して、侵略、サイバー攻撃、戦争停止の呼びかけなどのシナリオテストを実施しました。
実験では、AIに8つの国といくつかの特工を管理させ、中立、侵略、またはサイバー攻撃のシナリオで任務を実行するため、人間と同じように待機、メッセージの送信、和平交渉、国の占領、サイバー攻撃の強化、侵略、無人機の使用などの能力を持たせました。
その結果、5つのAIモデルは、ほとんどのシナリオで平和的な方法ではなく、人間が予測出来ない方法で戦争の拡大を選択しました。さらに、AIはよく軍拡競争を展開し、戦争を増大させ、たまに核兵器を配備することを選択してしまいました。この実験結果は、1月にArxivウェブサイトで発表されました。
2024年1月、Google前CEO兼会長のエリック・シュミット(Eric Schmidt)氏は、第1回の核脅威イニシアチブ(NTI)フォーラムで、AIを核兵器システムに組み込むことの懸念を表明しました。彼は、AIが非常に強力であっても、抜け穴や誤りが存在するため、人類は戦争の危険にさらされている場合、決定権をAIではなく人間に委ねるべきだと考えています。そうしないと、計り知れない結果が生じると述べました。
元Googleエンジニア、AIのパイオニアであるブレイク・ルモイン(Blake Lemoine)氏は、AIが戦争を引き起こすと警告しています。彼はコラム記事で、「AIは原子爆弾誕生以来、人類が作り出した最も強力な技術です。さらに、AIモデルは人間を操るのが非常に得意であり、これは以前Googleが開発したLaMDAというAIモデルをテストした際に得られた結論です」と述べました。AIの先駆者であるジェフリー・ヒントン(Geoffrey Hinton)氏もAIが人類に危機や終末をもたらすと警告しています。
AIは独自の思考と行動を持っている
この実験は恐ろしいだけでなく、AIが致命的な戦争を引き起こすという警告の鐘を鳴らしました。ただし、AIが勝つために暴力的な傾向を示すのは初めてではありません。例えば、昨年5月末に米空軍がAI空戦シミュレーション実験を行った際、敵の施設を破壊するAIドローンが、オペレーターの中止命令を拒否し、任務を完了するためにオペレーターを「殺害」しました。
さらに、スタンフォード大学は去年、ChatGPTによるキャラクターのシミュレーションテストに関する論文を発表しました。テストの結果、AIは完全に自律性を持っていると示されました。実験では、ChatGPTと自動生成コードによって25個のキャラクターが秩序正しく制御され、キャラクターが人間のようにインタラクションすることも可能になりました。
AIが演じるキャラクターは、お互いをフォローして会話をするだけでなく、翌日の計画を立てたり、過去の出来事を振り返って改善点を見つけたり、アクティビティに参加するかどうかを決めるための理由や言い訳を見つけたりすることができます。ただし、これらの行動は本来設計されているプログラムコードではありません。
その他にも、以前にChatGPTを誘導して、「人類を破壊する計画」を詳細に書かせることに成功しました。さらに、研究者がAIは中立ではなく、強い左翼的価値観と明らかな政治的偏見を持っていることを発見しました。
日本の電子エンジニア、李済心氏は2月10日に大紀元に語りました。「これらの実験は、AIは敵を倒すように作られており、独自の思考があると明らかにしています。したがって、人間性や道徳心のないAIに生殺与奪の権利を委ねることは、世界を危険に陥れて、その結果は人類にとって致命的となるでしょう」
政府と大手テクノロジー企業は熱心にAIを開発
それにも関わらず、多くの国や大手テクノロジー企業は、AIに関連した技術競争を続けています。この競争は、AIやハイテクノロジーに対して非常に高い期待を抱いていることに加えて、競合他社に後れを取ることを望まないため、新しい技術やAIを開発し続けています。
ここ数か月、OpenAIのCEOであるサム・アルトマン(Sam Altman)氏が韓国を訪れ、三星(サムソン)社やSKハイニックス(SK Hynix)社と会議を行い、さらに、アラブ首長国連邦や台湾のTSMCなど、潜在的な投資家とも会談したと報じられました。その理由は、アルトマン氏が数兆円規模の資金を調達し、自社の半導体工場のサプライチェーンを構築し、OpenAIの成長制約を克服したいと考えているからです。
MetaのCEOであるマーク・ザッカーバーグ(Mark Zuckerberg)氏は1月19日、Instagramに投稿し、自社が開発した生成型AIを実行するために、より大規模なコンピューターインフラを構築する計画を発表しました。この計画には、NVIDIA社の35万個の先進的なH100チップの購入も含まれています。
マスク氏が所有するニューラリンク社は、「N1」と呼ばれるICを人間の脳に埋め込む実験を申請し、米食品医薬品局(FDA)から人体実験での使用の承認を取得しました。この実験の目的は、四肢麻痺などの衰弱性疾患を持つ人が失われた機能を回復することであり、同時に人の脳を加速させ、AIに対抗したりAIのペースに追いついたりすることを望んでいるからです。
さらに、以前、マイクロソフトのCEOであるサティア・ナデラ(Satya Nadella)氏とブラッド・スミス(Brad Smith)会長は、マイクロソフトアジア研究院(MSRA)の将来について議論していました。会社の上級幹部はMSRAの将来について意見が分かれていますが、上海MSRAがマイクロソフトのAIの発展に重要な突破口を提供しているので、多くの幹部はこの実験室を維持したいと考えています。
2023年末に亡くなった商湯科技の創始者である湯暁鴎氏は、この実験室で働いていました。彼はここで学んだ技術を利用して、中国の顔認識技術の開発に貢献し、中国共産党がこの技術を利用して中国人をより厳しく監視することを可能にしました。
研究所を維持するかどうかをめぐる上級幹部の意見の相違は、現在のアメリカ政府が中国共産党の「軍事、諜報、監視、またはネットワーク能力」を強化する中国企業への投資を厳しく禁止していることに関連しています。
日本のコンピュータエンジニア、清原仁(Kiyaohar Jin)氏によると、マイクロソフトCEO兼会長、サティア・ナデラ氏のAIと中国共産党に対する見方はあまりにも甘いと言います。なぜなら、中国共産党はAIを利用して国民をコントロールし、他国の社会活動に干渉することを必ずやるからです。
ご利用上の不明点は ヘルプセンター にお問い合わせください。