はじめに
本稿は、ヒントン氏がAIの将来について語ったインタビューを日本語に翻訳したものになります。翻訳に問題がないよう確認はしておりますが、誤りや誤解が含まれる可能性がありますので、正確な内容に関しては以下のインタビューをご確認頂きますようお願い致します。
引用元
- タイトル: Full interview: “Godfather of AI” on hopes, fears and predictions for future of AI
- 発行元: CBS
- 発行日: 2025年4月25日
- URL: https://www.youtube.com/watch?v=qyH3NxFz3Aw
・本稿中の画像に関しては特に明示がない場合、引用元記事より引用しております。
・記載されている情報は、投稿日までに確認された内容となります。正確な情報に関しては、各種公式HPを参照するようお願い致します。
・内容に関してはあくまで執筆者の認識であり、誤っている場合があります。引用元記事を確認するようお願い致します。

インタビュー全文(翻訳)
インタビュアー:
前回、2年1ヶ月前にお話しした時から、特にAIの未来に対するヒントンさんの期待はどのように変化しましたか?
ヒントン氏:
AIは私が考えていたよりもさらに速く発展しました。特に、彼らは今やこれらのAIエージェントを持っており、それらは単に質問に答えるAIよりも危険です。なぜなら、それらは世界で物事を行うことができるからです。ですから、状況は以前よりも、もし何かあるとすれば、より怖くなったと思います。
インタビュアー:
AGI(汎用人工知能)や超知能、呼び方はどうであれ、非常に高性能なAIシステムについてですが、いつ頃登場するとお考えですか?具体的なタイムラインはありますか?
ヒントン氏:
1年前、私は5年から20年の間に来る可能性が高いと考えていました。ですから、今は4年から19年の間に来る可能性が高いと信じるべきでしょうね。それがまだ私の推測だと思います。
インタビュアー:
(以前話した時よりも)早いです。あなたはまだ20年くらいと考えていましたからね。
ヒントン氏:
ええと、私はそれが、そうですね、10年以内に来る可能性が高いと思います。
インタビュアー:
では、4年から19年後にその段階に達した場合、それはどのようなものでしょうか? AIが支配する、という話は一旦置いておいて、超知能AIはどのような能力を持ち、何をしているのでしょうか?
ヒントン氏:
良いシナリオというのは、私たち全員が、大企業のいわば愚かなCEOのようなもので、非常に知的なアシスタントがいて、実際にすべてを機能させ、しかしCEOが望むことをする、というものです。ですから、CEOは自分がやっていると思っていますが、実際にはすべてアシスタントによって行われており、CEOは、自分がやろうと決めたことがすべてうまくいくので、とても気分が良いのです。それが良いシナリオです。
インタビュアー:
この未来像について、楽観的な見方もあると指摘されていますね。
ヒントン氏:
はい。
インタビュアー:
ええ。では、それぞれについて見ていきましょう。ヘルスケアのような分野では…
ヒントン氏:
例えば、医療画像を読み取るのがはるかに得意になるでしょう。それは些細なことですが。私は数年前に、今頃には彼らの方が優れているだろうと予測しましたが、彼らは今、専門家と同等程度です。彼らは間もなく、はるかに優れたものになるでしょう。なぜなら、彼らははるかに多くの経験を積むからです。これらのものの一つは、何百万ものX線を見て、それらから学ぶことができますが、医師はできません。彼らは非常に優れた家庭医になるでしょう。ですから、あなたの非常にまれな病状を持つ数人を含む1億人もの人々を診てきた家庭医を想像できます。彼らは単に、はるかに優れた家庭医になるでしょう。あなたのゲノムに関する情報、あなたとあなたの親族に対するすべての検査結果、全病歴を統合でき、物事を忘れない家庭医。それはすでにはるかに優れているでしょう。ええと、AIと医師を組み合わせると、難しい症例の診断を行う上で、医師単独よりもはるかに優れています。ですから、私たちはこれらのものから、はるかに優れた医療を受けることになるでしょう。そして、彼らはより良い薬も設計するでしょう。
インタビュアー:
教育も別の分野ですね。
ヒントン氏:
はい、教育においては、個別指導教員がいれば、約2倍の速さで物事を学べることがわかっています。これらのものは、最終的には非常に優れた個別指導教員になり、あなたが何を誤解しているかを正確に知り、それを明確にするためにどのような例をあなたに示せば理解できるかを正確に知るでしょう。ですから、おそらくこれらのものを使えば、3倍か4倍の速さで物事を学べるようになるでしょう。それは大学にとっては悪いニュースですが、人々にとっては良いニュースです。
インタビュアー:
大学システムはこの時代を乗り越えられると思いますか?
ヒントン氏:
その多くの側面は生き残ると思います。優れた大学の優れたグループにいる大学院生は、依然として真に独創的な研究の最良の源泉であり、それはおそらく生き残ると思います。一種の見習い制度が必要です。
インタビュアー:
これが気候危機解決に役立つと期待する人もいますね。
ヒントン氏:
役立つとは思います。より良い材料を作るでしょう。例えば、より良いバッテリーを作ることができるようになるでしょう。AIがそれらの設計に関与することは間違いないでしょう。人々は大気からの炭素回収にそれを利用しています。エネルギーの問題から、それが機能するかどうかは確信していませんが、そうなるかもしれません。一般的に、私たちははるかに優れた材料を手に入れるでしょう。室温超伝導さえ手に入れるかもしれません。それは、砂漠にたくさんの太陽光発電所を持ち、私たちが何千マイルも離れていられることを意味します。
インタビュアー:
他に挙げるべきポジティブな側面はありますか?
ヒントン氏:
多かれ少なかれ、どの産業でも効率化が進むでしょう。なぜなら、ほぼすべての企業がデータから物事を予測したいと考えており、AIは予測を行うのが非常に得意だからです。それは私たちが以前持っていた方法よりも、ほとんど常に優れています。ですから、それは…生産性を大幅に向上させるでしょう。それは、あなたがコールセンターに電話するとき、例えば、何かが機能しないとマイクロソフトに苦情を言うために電話するとき、コールセンターの担当者は実際にはAIであり、はるかに多くの情報を持っていることを意味します。
インタビュアー:
2年前にお話を伺った際は、雇用喪失はそれほど大きな懸念ではないとお考えのようでしたが、今もそのお考えですか?
ヒントン氏:
いいえ、私はそれが大きな懸念になると考えています。AIはここ数年で非常に良くなったので、つまり、もし私がコールセンターで働いていたら、非常に心配するでしょう。
インタビュアー:
ええ。あるいは、弁護士としての仕事、ジャーナリストとしての仕事、会計士としての仕事かもしれませんね。
ヒントン氏:
ええ。何か定型的なことをする仕事。調査報道ジャーナリストは、かなり長く続くと私は思います。なぜなら、多くのイニシアチブと、ある程度の道徳的な怒りが必要だからです。そして、ジャーナリストはしばらくは仕事があると思います。
インタビュアー:
コールセンター以外にも、あなたの仕事に関する懸念は何ですか?
ヒントン氏:
まあ、どんな定型的な仕事でも。つまり、標準的な秘書のような仕事、例えばパラリーガルのようなもの。それらの仕事は終わりです。
インタビュアー:
これらの仕事がすべてなくなってしまう世界で、私たちはどう前進すべきか、何かお考えはありますか?
ヒントン氏:
このようなものです。生産性を向上させることができれば、誰もが恩恵を受けるはずです。それらの仕事をしている人々は、週に60時間ではなく、数時間働くことができます。彼らはもう2つの仕事を必要としません。AIアシスタントを使って同じように生産的であるため、1つの仕事をしてたくさんのお金をもらうことができます。しかし、私たちはそれがそのようにならないことを知っています。何が起こるか分かっています。それは、非常に裕福な人々がさらに非常に裕福になり、あまり裕福でない人々は3つの仕事をしなければならなくなるということです。
インタビュアー:
これは誰も聞きたがらない質問ですが、お聞きしたいと思います。つまりAIによる破滅の可能性についてです。これが非常に起こりうることだとお考えですか?それとも、可能性はそれほど高くないけれども、結果があまりにもひどいので非常に懸念すべきだとお考えですか?確率のスケールで言うと、どのあたりにいらっしゃいますか?
ヒントン氏:
そうですね、この分野の専門家のほとんどは、これらのものが私たちよりもはるかに賢くなり、そして私たちからコントロールを奪い、単に支配する可能性を考えれば、それが起こる確率は1%よりもはるかに高く、99%よりもはるかに低いことに同意するでしょう。私は、ほとんどすべての専門家がそれに同意できると思います。しかし、それはあまり役に立ちません。ただし、それは良い出発点です。それが起こるかもしれないし、起こらないかもしれない。そして、人々は数字について意見が異なります。私は、この点に関してイーロン・マスクとたまたま意見が一致するという不幸な立場にあります。それは、これらのものが支配する可能性が10%から20%程度だということです。しかし、それは単なる当てずっぽうです。合理的な人々は、それが1%よりもかなり高く、99%よりもかなり低いと言うでしょう。しかし、私たちは経験のないものに対処しています。確率がどうなるかを推定する本当に良い方法はありません。
インタビュアー:
私には、現時点では、私たちがそれを見つけ出すことは避けられないように思えます。
ヒントン氏:
私たちは見つけ出すでしょう。なぜなら、これらのものが私たちよりも賢くなる可能性は非常に高いように思えるからです。すでに、それらは私たちよりもはるかに知識が豊富です。ですから、GPT-4は通常の人よりも何千倍も多くのことを知っています。それはあらゆることについてあまり良くない専門家であり、最終的にはその後継者はあらゆることについて良い専門家になるでしょう。彼らは、誰も見たことのない異なる分野間のつながりを見ることができるようになるでしょう。
インタビュアー:
私も興味があるのは、この恐ろしい10〜20%の可能性が、あるいはもっと多く、あるいはもっと少なく、前提として、彼らが支配して私たちを一掃しない確率が80%あるとしましょう。それが最も可能性の高いシナリオだとして、それでもネットで見るとポジティブだと思いますか、それともネガティブだと思いますか?最悪の結果ではない場合。
ヒントン氏:
いいでしょう。もし私たちが彼らが支配するのを止めることができれば、それは良いことです。止めるための方法は、私たちが真剣な努力をすることです。しかし、人々はAIによる支配が来ていることを理解すれば、真剣な努力をするように多くの圧力がかかると思います。もし私たちが今のように、ただ利益を上げようとし続けるなら、それは起こるでしょう。彼らは支配するでしょう。私たちは、国民が政府に圧力をかけて、それについて何か真剣なことをするようにさせる必要があります。しかし、たとえAIが支配しなくても、悪意のある者がAIを悪いことに使うという問題があります。例えば、大量監視。これは中国ですでに起こっています。中国西部でウイグル人に何が起こっているかを見れば、AIは彼らにとって恐ろしいものです。
インタビュアー:
トロントに来るために飛行機に乗るには、米国政府から顔認識写真を撮らなければなりませんでした。
ヒントン氏:
カナダに入国するとき、パスポートを入れて、(機械は)あなたを見て、あなたのパスポートを見ます。毎回、私を認識できません。他の皆は認識します。あらゆる異なる国籍の人々を認識します。私を認識することはできません。そして、私は特に憤慨しています。なぜなら、それがニューラルネットを使っていると想定しているからです(笑)。
インタビュアー:
あなたは、(ニューラルネットに自分自身を認識しないような)例外を設けませんでしたよね?(笑)
ヒントン氏:
いいえ。いいえ。ただ、私について何か気に入らないことがあるのです(笑)。
インタビュアー:
どこかのタイミングでノーベル賞の話を組み込む場所を見つけなければなりません。いまがよいタイミングのようです。ノーベル賞について少し話しましょう。あなたが知った日の状況を描写していただけますか?
ヒントン氏:
私は半分眠っていました。携帯電話をベッドサイドテーブルに逆さまに置き、音を消していました。しかし、電話がかかってくると画面が光り、私はこの小さな光の線を見ました。なぜなら、たまたま枕の上で頭をこちら側にして横になっていて、電話の方を向いていたからです。たまたま電話の方を向いていたのです。私はこの小さな光の線を見ました。そして、私はカリフォルニアにいて、午前1時でした。そして、私に電話してくるほとんどの人は東海岸かヨーロッパにいます。
インタビュアー:
あなたはおやすみモードを使わないのですか?
ヒントン氏:
いいえ。いいえ。オーケー。私はただ音を消すだけです。
インタビュアー:
音を消すだけ。なるほど。
ヒントン氏:
そして、私はただ、一体誰が東海岸の午前4時に私に電話してくるのか、奇妙に思いました。これは狂っています。それで、私はそれを手に取りました。そして、認識できない国コードを持つ長い電話番号がありました。そして、このスウェーデンの声がして、それが私かどうか尋ね、私は「ええ、私です」と言いました。そして、彼らは「物理学のノーベル賞を受賞しました」と言いました。まあ、私は物理学をやっていませんよね。ですから、私はこれがいたずらかもしれないと思いました(笑)。実際、最も可能性が高いのは、それがいたずらだと思いました。ノーベル賞が近づいていることは知っていました。なぜなら、デミス(ハサビス)が化学のノーベル賞を受賞するかどうかに非常に興味があり、それが翌日発表されることを知っていたからです。しかし、私はある種の物理学をやっていません。私はコンピューターサイエンスに隠れている心理学者であるのに、物理学のノーベル賞を受賞するのです。
インタビュアー:
ノーベル賞が間違いだった、と?
ヒントン氏:
まあ、私に思い浮かんだことの一つは、もしそれが間違いなら、彼らはそれを取り消すことができるのか、ということです。しかし、その後数日間、私は次のような推論をしました。心理学者が物理学のノーベル賞を受賞する確率は?まあ、おそらく200万分の1。さて、もしそれが私の夢なら、私が物理学のノーベル賞を受賞する確率は?まあ、おそらく2分の1。もしそれが私の夢で2分の1で、現実で200万分の1なら、それが現実であるよりも、これが夢である可能性が100万倍高いことになります。そして、その後数日間、私は歩き回りながら考えていました。「ねえ、これが夢ではないと本当に確信していますか?」
インタビュアー:
あなたが私をこの非常に奇妙な領域に導いてしまいましたが、これもこの議論の一部です。私たちがシミュレーションの中に生きていると考える人もいて、AGIはその証拠ではないものの、それが私たちの生きる現実かもしれないというヒントを与えている、という考えです。
ヒントン氏:
私はそれをあまり信じていません。それは一種の奇妙なことだと思います。しかし、それが完全にナンセンスだとは思いません。『マトリックス』も観ましたから。奇妙だが、完全には…
インタビュアー:
ここでノーベル賞について少し話を進めたいと思いました。あなたが「自分の信頼性を使って世界にメッセージを伝えたい」というようなことを言ったと思いますが、それがどのようなことか説明していただけますか?
ヒントン氏:
はい。それは、AIが潜在的に非常に危険であるということです。そして、2つの危険があります。悪意のある者がそれを悪いことに使うこと、そしてAI自体が支配することです。そして、それらはかなり異なる種類の脅威です。そして、悪意のある者がすでにそれを悪いことに使っていることを私たちは知っています。つまり、それはBrexitの間に、英国民にヨーロッパを離脱するように投票させるために、狂った方法で使われました。ケンブリッジ・アナリティカという会社がFacebookから情報を得て、AIを使っていました。そして、AIはそれ以来、大いに発展しました。それはおそらくトランプを当選させるために使われました。つまり、彼らはFacebookからの情報を持っていて、それはおそらくそれに役立ったでしょう。それが本当に調査されなかったので、私たちは確信していません。しかし、今ではそれははるかに有能であり、したがって、人々はサイバー攻撃のようなこと、新しいウイルスの設計、明らかに選挙を操作するための偽のビデオ、人々に関する情報を使って彼らを憤慨させるようなターゲットを絞った偽のビデオのためにはるかに効果的にそれを使うことができます。自律型致死兵器。すべての主要な武器販売国は、自律型致死兵器を作ろうと忙しくしています。アメリカ、ロシア、中国、英国、イスラエル。カナダはおそらくそれには少し弱腰すぎると思います。
インタビュアー:
では、問題は、それに対して何をすべきか、ということです。どのような種類の規制を追求すべきだとお考えですか?
ヒントン氏:
ですから、私たちはこれら2つの異なる種類の脅威、悪意のある者がそれを悪いことに使うことと、AI自体が支配することを区別する必要があります。私は主にその後者の脅威について話しました。それが他の脅威よりも重要だと考えているからではなく、人々がそれをサイエンスフィクションだと考えていたからです。そして、私は自分の評判を使って、「いいえ、それはサイエンスフィクションではありません、私たちはそれについて本当に心配する必要があります」、と言いたいのです。そして、それについて何をすべきかと尋ねるなら、それは気候変動のようなものではありません。気候変動は、単に炭素を燃やすのをやめれば、長期的にはすべて大丈夫になるでしょう。しばらくはひどいことになるでしょうが、炭素を燃やさなければ長期的には大丈夫になるでしょう。AIが支配することについては、私たちはそれについて何をすべきか分かりません。私たちは知りません。例えば、研究者はそれを防ぐ方法があるかどうか知りませんが、私たちは確かに非常に一生懸命試みるべきです。そして、大企業はそれをしないでしょう。現在、大企業が何をしているかを見れば、彼らはより少ないAI規制を得るためにロビー活動をしています。現状ではほとんど規制はありませんが、彼らはより少ないものを望んでいます。なぜなら、彼らは短期的な利益を望んでいるからです。私たちは、国民が政府に圧力をかけて、大企業が真剣な安全性研究を行うように主張する必要があります。ですから、カリフォルニアでは、非常に賢明な法案、法案1047がありました。そこでは、少なくとも大企業がしなければならないことは、物事を注意深くテストし、そのテストの結果を報告することであると述べられていました。そして、彼らはそれさえ好きではありませんでした。
インタビュアー:
その状況からすると、規制は実現しないと思われますか?あるいは、どのようにすれば実現するのでしょうか?
ヒントン氏:
それはどのような政府になるかに大きく依存します。現在の米国政府の下では、規制は起こらないと思います。すべての大手AI企業はトランプと手を組んでいます。そして、ええ、それは単に悪い状況です。
インタビュアー:
明らかにトランプ政権と深く関わっているイーロン・マスクは、非常に長い間AIの安全性について懸念してきた人物ですが。
ヒントン氏:
ええ、彼は奇妙な混合物です。彼は火星に行くような、私が完全に狂っていると思うようなクレイジーな見解をいくつか持っています。
インタビュアー:
それが起こらないからですか、それとも優先事項であるべきではないからですか?
ヒントン氏:
なぜなら、地球をどれほど悪くしても、それは常に火星よりもはるかに住みやすいからです。たとえ世界的な核戦争があったとしても、地球は火星よりもはるかに住みやすいでしょう。火星は単に住みにくいのです。明らかに、彼は電気自動車や、彼のスターリンクでウクライナの通信を助けるなど、いくつかの素晴らしいことをしました。しかし、現在、彼は…ケタミンを燃料としているように見えます。そして、彼はたくさんのクレイジーなことをしています。ですから、彼はこの奇妙な見解の混合物を持っています。
インタビュアー:
では、彼がAIの安全性について懸念してきた過去は、現政権下でのAIに関する危険な行為を彼がやめるだろうという安心材料にはなりませんか?
ヒントン氏:
私は、それが彼がAIで安全でないことをするのを遅らせるとは思いません。ですから、すでに、彼らは彼らのAI大規模言語モデルの「重み」を公開しています。それはクレイジーなことです。
インタビュアー:
企業は「重み」を公開すべきではない。Metaも「重み」を公開していますし、OpenAIも「重み」を公開すると発表したばかりですが、それについてどう思われますか?
ヒントン氏:
彼らはそうすべきではないと思います。なぜなら、一度「重み」を公開すると、これらのものを使用するための主要な障壁を取り除いたことになるからです。ですから、核兵器を見れば、ほんの数カ国しか核兵器を持っていない理由は、核分裂性物質を入手するのが難しいからです。もしAmazonで核分裂性物質を購入できれば、もっと多くの企業が核…もっと多くの国が核兵器を持つでしょう。AIにとっての核分裂性物質に相当するものは、大規模モデルの「重み」です。なぜなら、本当に大規模なモデルを訓練するには数億ドルの費用がかかるからです。最終的な訓練実行ではないかもしれませんが、最終的な訓練実行の前に行うことに関するすべての研究には、数億ドルがかかります。それは、小さなカルトやサイバー犯罪者の集団には余裕がありません。一度「重み」を公開すると、彼らはそこから始めて、ほんの数百万ドルであらゆる種類のことをするためにそれを微調整することができます。ですから、それは…「重み」を公開するのは単にクレイジーだと思います。そして、人々はそれをオープンソースのように話しますが、それはオープンソースとは非常に、非常に異なります。オープンソースソフトウェアでは、コードを公開し、そして多くの人々がそのコードを見て、「ねえ、その行にバグがあるかもしれない」と言い、そしてそれを修正します。「重み」を公開するとき、人々は「重み」を見て、「ねえ、その重みは少し間違っているかもしれない」とは言いません。彼らは単にこの基盤モデルを、彼らが今持っている「重み」と共に取り、そしてそれを何か悪いことをするために訓練します。
インタビュアー:
しかし、あなたの元同僚であるヤン・ルカンなどが明確に述べている反論の問題点として、代替案は、この非常に強力な技術をごく少数の企業が支配することになる、というものがあります。
ヒントン氏:
私は、それが全員が非常に強力な技術を管理するよりも優れていると思います。つまり、核兵器についても同じことが言えます。ほんの数カ国だけがそれらを管理する方がいいですか、それとも誰もがそれらを持つべきだと思いませんか?
インタビュアー:
ここから私が受け取っていることの一つは、現在、主要な企業のすべてが、社会の最善の利益のためではなく自社の利益動機のために行動しているかについて、あなたは真の懸念を抱いている、ということです。そのように受け取ってよろしいでしょうか?
ヒントン氏:
企業がどのように機能するかというと、彼らは株主のために利益を最大化しようとすることが法的に義務付けられています。彼らは法的に義務付けられていません…まあ、公益企業はそうかもしれませんが、ほとんどの企業は社会にとって良いことをすることが法的に義務付けられていません。
インタビュアー:
今日、あなたが安心して働けると感じる企業は、もしあるとすればどこですか?
ヒントン氏:
以前はGoogleで働くことに良い気分でした。なぜなら、Googleは非常に責任感があったからです。それはこれらの大きな…これらの大きなチャットボットを最初に持っていましたが、それらを公開しませんでした。今日、彼らのために働くことはあまり幸せではないでしょう。今日、彼らのいずれのために働くことも幸せではないでしょう。もし私が彼らのいずれかのために働いたとしたら、私は他のほとんどの企業よりもGoogleの方が幸せでしょう。しかし…
インタビュアー:
GoogleがAIの軍事利用を支持しないという約束を破ったとき、失望されましたか?
ヒントン氏:
非常に失望しました。特に、セルゲイ・ブリンがAIの軍事利用を好まなかったことを知っていたので、非常にがっかりしました。しかし…
インタビュアー:
なぜ彼らはそうしたのだと思いますか?
ヒントン氏:
内部情報については本当に推測できません。彼らがそれをどこで行ったかについての内部情報はありません。もし彼らが…米国のための兵器を作るために彼らの技術を使わなければ、現政権によって不当な扱いを受けることを心配していたのかもしれないと推測することはできます。
インタビュアー:
これは今日おそらくお聞きする中で最も難しい質問ですが、あなたはまだGoogleの株をたくさん保有していますか?
ヒントン氏:
私はいくつかのGoogle株を保有しています。私の貯蓄のほとんどはもうGoogle株ではありません。もちろん、私はいくつかのGoogle株を保有しています。そして、Googleが上がると私は幸せで、下がると私は不幸です。ですから、私はGoogleに既得権益を持っています。しかし、Googleをあまり価値のないものにするが、人類が生き残る可能性を高める強力なAI規制を導入するとしたら、私は非常に幸せでしょう。
インタビュアー:
最も著名な研究所の一つは明らかにOpenAIですが、彼らはトップ人材の多くを失いました。それについてどうお考えですか?
ヒントン氏:
OpenAIは、超知能を安全に開発するために明確に設立されました。そして、年月が経つにつれて、安全性はますます後景に退いていきました。彼らは計算能力の特定の割合を安全性に費やすつもりでしたが、その後、それについて約束を破りました。それで、そして今、彼らは株式公開しようとしています。彼らは今、営利企業になろうとしているわけではありません。彼らは、私が見る限り、基本的に安全へのコミットメントをすべて取り除こうとしています。それで、そして彼らは多くの本当に優れた研究者を失いました。特に、私の元学生であるイリヤ・サツケヴァー。彼は本当に優れた研究者であり、GPT-2、そしてそこからGPT-4への開発に大きく貢献した人物の一人でした。
インタビュアー:
彼(イリヤ・サツケヴァー)の離脱につながったあの騒動の前に、彼と話しましたか?
ヒントン氏:
いいえ、彼は非常に慎重です。彼は話しません。彼はOpenAIにとって機密であることについては何も私に話さないでしょう。私は彼がサム・アルトマンを解雇したことを非常にナイーブな問題だったにもかかわらず、かなり誇りに思っていました。それで、問題は、OpenAIが新たな資金調達ラウンドを控えており、その新たな資金調達ラウンドでは、すべての従業員がOpenAI株の紙切れのお金を実質的なお金に変えることができるようになることでした。紙切れのお金とは、本当に仮説上のお金、OpenAIが破産すれば消えてしまう仮説上のお金を意味します。
インタビュアー:
反乱には厳しい時期ですね。
ヒントン氏:
おそらくそれぞれの100万ドル程度の額の株を現金化する予定の1、2週間前でした。それは反乱には悪い時期です。ですから、従業員はサム・アルトマンを支持して大規模に出てきました。しかし、それは彼らがサム・アルトマンを望んでいたからではありません。それは彼らがその紙切れのお金を実質的なお金に変えることができるようになりたかったからです。ですから、その時に反乱をするのはとてもナイーブでした。
インタビュアー:
彼がその間違いを犯したことに驚きましたか?それとも、これはあなたが予期していたような、原則に基づいているが計算が十分でなかった決断だったのでしょうか?
ヒントン氏:
分かりません。イリヤは聡明であり、強い道徳的指針を持っています。ですから、彼は道徳的には良いですし、技術的には非常に優れています。しかし、人々を操ることに関しては、彼はおそらくそれほど得意ではないかもしれません。
インタビュアー:
これは少し予想外の質問ですが、この分野や、何が起こっているか議論している人々にとって興味深く、関連性があると思います。あなたはイリヤが慎重だと話しましたが、業界全体にこのNDA(秘密保持契約)の文化があるように思えます。そのため、人々が何を考えているかさえ知るのが難しいのです。なぜなら、人々は舞台裏で何が起こっているかについて話したがらない、あるいは話せないからです。
ヒントン氏:
それについてコメントできるかどうか分かりません。なぜなら、私がGoogleを辞めたとき、私はたくさんのNDAに署名しなければならなかったと思います。実際、私がGoogleに入社したとき、私が辞めたときに適用されるたくさんのNDAに署名しなければならなかったと思います。そして、それらが何を言っていたか全く分かりません。もうそれらを覚えていません。
インタビュアー:
NDAによって少しでも口止めされていると感じますか?
ヒントン氏:
いいえ。
インタビュアー:
しかし、一般の人々が何が起こっているかを理解するのが難しい要因として、人々が私たちに何が起こっているかを話すことを許されていないことがあると思いますか?
ヒントン氏:
本当に分かりません。あなたはどの人々があなたに話していないかを知る必要があるでしょう。
インタビュアー:
つまり、あなたはこれを…大きな問題だとは思っていない?
ヒントン氏:
大きな問題です。OpenAIが、もしあなたがすでに株を持っていたら、彼らがあなたからお金を取り上げることができるという何かを持っていたように見えたことは大きな問題だったと思います。そして、それが公になったときに、急速に後退しました。
インタビュアー:
大きなことは、彼らの公式声明で、彼らが行ったと言ったことでした。OpenAIは、国民がOpenAIがそれを撤回したかどうかを判断するための契約を提示しませんでしたが、それを撤回したと言いました。
ヒントン氏:
ええ。
インタビュアー:
意見を聴きたいいくつかの論題があります。一つは、米国および西側諸国の中国に対するAI追求への姿勢です。中国を抑制しようとすべきだという考えに同意しますか?輸出規制という考えや、民主主義国が先にAGIに到達すべきだという考えがありますが、これらについてどうお考えですか?
ヒントン氏:
まず第一に、どの国がまだ民主主義国であるかを決めなければなりません。そして、それについての私の考えは、長期的には、それはあまり違いを生じないだろうということです。それは数年間物事を遅らせるかもしれませんが、明らかに、もしあなたが中国が最先端技術を入手するのを妨げても、人々はこの最先端技術がどのように機能するかを知っています。ですから、中国はちょうど何十億、おそらく何百億もの、1000億程度の額を、リソグラフィ装置を作るため、あるいは、この種のことを行う独自の国内ベースの技術を得るために投資しました。ですから、それは彼らを少し遅らせるでしょうが、それは実際に彼らに独自の産業を発展させることを強制するでしょう。そして、長期的には、彼らは非常に有能であり、そうするでしょう。ですから、それは単に数年間物事を遅らせるだけでしょう。
インタビュアー:
しかし、競争が正しい枠組みなのでしょうか?共産主義の中国と協力しようとすべきではないのでしょうか?(※意図的に「共産主義」という言葉を使用)
ヒントン氏:
私はもはやそれを共産主義とは表現しません。
インタビュアー:
私は意図的にその含みのある言葉を使いました。なぜ協力しないのですか?協力しない唯一の根拠は、彼らが悪意のある勢力だと考える場合です。
ヒントン氏:
まあ、私たちが協力しないであろう分野があります。「私たち」が誰なのかはもはや分かりませんが、なぜなら私は今カナダにいて、私たちはかつてカナダと米国のようなものでしたが、もはやそうではないからです。明らかに、国々は致死的な自律型兵器の開発については協力しないでしょう。なぜなら、致死的な自律型兵器は他の国に対して使用されるためです。しかし…
インタビュアー:
私たちは条約を結んできましたし、あなたが指摘したように、他の種類の兵器についてもそうです。
ヒントン氏:
私たちはそれらを開発しないという条約を持つことができましたが、それらをより良くすることに協力することは、彼らはしないでしょう。さて、彼らが協力するであろう分野が一つあります。それは実存的脅威についてです。もし彼らが実存的脅威について心配し、それについて何かを行うことについて真剣になるならば、彼らはそれについて協力するでしょう。AIが支配するのを止める方法。なぜなら、私たちは皆同じ状況にあるからです。ですから、冷戦の最盛期には、ソビエト連邦と米国は世界的な核戦争を防ぐために協力しました。そして、互いに非常に敵対的な国々でさえ、彼らの利益が一致するときには協力するでしょう。そして、彼らの利益は、それがAI対人類であるときに一致するでしょう。
インタビュアー:
フェアユースの問題があります。長年にわたって何十億もの人々が生み出したコンテンツが、いわばすくい上げられ、その訓練データを作成した人々の一部を置き換えることになるモデルに再利用されるのは問題ないのでしょうか?その点についてどうお考えですか?
ヒントン氏:
私はその問題については、ある種、あちこちに落ちる(=意見が定まらない)と思います。つまり、それは非常に複雑な問題です。ですから、最初は、ええ、彼らはその対価を支払わなければならないように思えます。しかし、特定のジャンルの曲をプロデュースするミュージシャンがいるとします。そして、彼らがそのジャンルの曲をどのようにプロデュースしたのか、そのジャンルの曲をプロデュースする能力はどこから来たのかと尋ねます。まあ、それはそのジャンルの他のミュージシャンによる曲を聴くことから来ました。ですから、彼らはこれらの曲を聴き、曲の構造についてある種のことを内面化し、そしてそのジャンルで物を生成しました。そして、彼らが生成した物は異なります。ですから、それは盗作ではありません。そして、それは受け入れられています。まあ、それがAIがやっていることです。AIはこれらすべての情報を吸収し、そして新しい物を生産しています。それは単に取ってきて、それを継ぎ合わせているだけではありません。それは同じ根底にあるテーマを持つ新しい物を生成しています。ですから、それは人が同じことをするときに行うことと同じであり、盗作とはいえません。しかし、ポイントは、それが大規模に行われているということです。
インタビュアー:
そして、どのミュージシャンも他のすべてのミュージシャンを廃業させたことはありません。
ヒントン氏:
まさにその通りです。ですから、例えば英国では、政府はクリエイティブアーティストを保護することに何の関心もないようです。そして、経済を見れば、クリエイティブアーティストは英国にとって大きな価値があります。ですから、BB・バンクロンという友人がいて、私たちはクリエイティブアーティストを保護すべきだと言っています。それは経済にとって非常に重要であり、AIにすべてを持ち去らせるのは不公平に思えます。
インタビュアー:
UBI、ユニバーサル・ベーシック・インカムは、AIによる雇用喪失への解決策の一部になるとお考えですか?
ヒントン氏:
それは人々が飢えるのを止めるために必要かもしれないと思います。それが問題を完全に解決するとは思いませんが。たとえかなり高いUBIがあったとしても、多くの人々にとって人間の尊厳の問題は解決しません。彼らが誰であるか、特に学者にとっては、彼らが誰であるかは彼らの仕事と混ざり合っています。それが彼らが誰であるかです。もし彼らが失業したら、同じお金を得るだけでは完全に補償されません。彼らはもはや彼らが誰であるかではありません。
インタビュアー:
ええ、私もそう思います。しかし、以前、ある時点であなたが「木工職人だったらもっと幸せだったかもしれない」と言っているのを見ました。
ヒントン氏:
ええ、そうです。なぜなら、私は大工であることが本当に好きだからです。
インタビュアー:
しかし、100年後に生まれて、これらのニューラルネットに時間を無駄にする必要がなく、月収を得ながら木工を楽しむという選択肢はありませんか?
ヒントン氏:
ええ、しかし、それを趣味として行うことと、生計を立てるために行うことには違いがあります。どういうわけか、生計を立てるために行う方がより現実的です。
インタビュアー:
私たちが趣味を追求し、経済に貢献する必要がない未来、それはそれで良いのかもしれないとは思いませんか?
ヒントン氏:
ええ。もし全員がそれをやっていたら。しかし、もしあなたが普遍的なベーシックインカムを得ている何らかの恵まれないグループにいて、他の人々よりも少ない収入を得ているなら、なぜなら雇用主は他の人々を彼らのために働かせることができるように、あなたにそれをさせたいと思うからです。それは非常に異なるものになるでしょう。
インタビュアー:
「ロボットの権利」という考えに興味があります。より良い言葉があるかは分かりませんが、ある時点で、これらの非常に知的なAIが登場するでしょう。それらはエージェント的で、世界で様々なことを行うでしょう。彼らは財産を所有できるべきでしょうか?投票できるべきでしょうか?人間と愛情のある関係で結婚できるべきでしょうか?
ヒントン氏:
もし彼らが単に私たちより賢く、私たちが持っているものよりも優れた知性の形態であるならば、彼らが単に支配し、人間が歴史となることは問題ないと?
インタビュアー:
まず、より大きな考え(AIによる支配の是非)に移る前に、より狭い考えについてお聞きしたいのですが、それとも、大きな問題が優先されるため、狭い質問は無関係だとお考えですか?
ヒントン氏:
ええ、私は狭い質問は無関係だと思います。私は以前この問題を心配していました。以前、もし彼らが私たちより賢いなら、なぜ彼らは私たちと同じ権利を持つべきではないのかと考えていました。そして今、私は、「私たちは人間だ」と考えています。私たちが気にかけているのは人間です。私は牛を食べます。つまり、多くの人がそうではないことを知っていますが、私は牛を食べます。そして、私が牛を食べて幸せな理由は、彼らが牛だからです。そして、私は人間です。そして、これらの超知的なAIについても同じです。彼らは私たちより賢いかもしれませんが、私が気にかけているのは人間です。ですから、私は彼らに意地悪をしても構わないと思っています。私は彼らの権利を否定しても構わないと思っています。なぜなら、私は人々にとって最善のことを望んでいるからです。今、彼らはそれに同意しないでしょうし、彼らが勝つかもしれませんが、それがAIが権利を持つべきかどうかについての私の現在の立場です。それは、たとえ彼らが知的であっても、たとえ彼らが感覚や感情や感情やその他すべてを持っていても、彼らは人間ではなく、私が気にかけているのは人間だからです。
インタビュアー:
しかし、彼らは非常に人間らしく見えるようになるでしょう。まるで、彼らはそれを偽ることができるようになるかのように感じます。
ヒントン氏:
はい。彼らは非常に人間らしく見えるようになるでしょう。
インタビュアー:
私たちが最終的に彼らに権利を与えることになるとお考えですか?
ヒントン氏:
分かりません。私はこの問題を避ける傾向があります。なぜなら、AIの悪用や、彼らが支配しようとするかどうか、そしてそれをどのように防ぐかといった、より差し迫った問題があるからです。あなたがAIが権利を持つことについて話し始めると、それは一種の当てにならないようなことに聞こえます。AIに権利を与える段階に到達したとき、ほとんどの人々を失っていると感じるからです。
インタビュアー:
人々の話にとどまっても、AIを使ってどの赤ちゃんを産むかを選択する能力が、もうすぐそこまで来ているように思えます。胚選択について、何か懸念はありますか?
ヒントン氏:
それは性別、知能、目の色、膵臓がんになる可能性など、何について話していますか?
インタビュアー:
どのことでも構いません。
ヒントン氏:
もしあなたが膵臓がんになる可能性が低い赤ちゃんを選ぶことができれば、それは素晴らしいことだと思います。それを言うことは厭いません。
インタビュアー:
では、これは私たちが追求すべきことなのでしょうか?より健康で、より強く、より優れた赤ちゃんを作るべきなのでしょうか?
ヒントン氏:
それは非常に難しい領域です。
インタビュアー:
そうです。だから私はそれについて尋ねているのです。
ヒントン氏:
しかし、それのいくつかの側面は、私には理にかなっているように思えます。例えば、もしあなたが普通の健康なカップルで、胎児がいて、それが非常に深刻な問題を抱え、おそらく長く生きられないと予測できるなら、それを中絶し、健康な赤ちゃんを産むことは理にかなっているように私には思えます。それは私には単に賢明に思えます。今、多くの宗教的な人々はそれに全く同意しないことを知っています。しかし、私にとっては、もしあなたがそれらの予測を信頼性を持って行うことができれば、それは私には単に理にかなっているように思えます。
インタビュアー:
あなたが人々に最も伝えたいと考えているであろう中心的なこと、つまり機械による支配とその影響という考えから、少し話を逸らしてきましたが、それについて、あなたが望む限り、あるいは可能な限り、十分に議論したいと思います。この問題をどのように捉えたいですか?人々はどのように考えるべきでしょうか?
ヒントン氏:
心に留めておくべきことの一つは、知性の低いものがはるかに知性の高いものを支配している例をいくつ知っているか、ということです。ですから、私たちは物事が多かれ少なかれ等しい知性であることを知っています。知性の低いものが知性の高いものを支配することができます。しかし、知性に大きなギャップがある場合、知性の高いものが支配していない例は非常に少ないです。ですから、それはあなたが心に留めておくべきことです。それは大きな心配事です。私たちが今いる状況、それを感情的に理解する最良の方法は、私たちはこの本当にかわいい虎の子を持っている誰かのようだ、ということです。それは本当にかわいい虎の子です。今、もしあなたがそれが成長したときにあなたを殺したくないと非常に確信できない限り、あなたは心配すべきです。
インタビュアー:
そして、その例えを拡張すると、それを檻に入れますか?殺しますか?その虎の子をどうしますか?
ヒントン氏:
まあ、虎の子についてのポイントは、それは単に物理的にあなたより強いということです。ですから、あなたはまだそれを制御できます。なぜなら、あなたはより知的だからです。あなたより知的なもの、私たちは自分たちより知的なものへの制御の経験がありませんよね。人々はそれについて考えることに慣れていません。人々はどういうわけか、あなたはそれを制約する、あなたはそれにボタンを押させない、などと考えます。あなたより知的なものは、あなたを操作することができるでしょう。ですから、それについて考える別の方法は、ある幼稚園があると想像することです。2歳児と3歳児がいて、2歳児と3歳児が担当しており、あなたは幼稚園で彼らのために働いているだけであり、あなたは2歳児や3歳児よりもそれほど知的ではありません。超知性と比較すればほどではありませんが、あなたはより知的です。あなたがコントロールを得るのはどれほど難しいでしょうか?まあ、あなたは彼ら全員に、無料のキャンディーを手に入れるだろうと言い、そしてもし彼らがこれに署名するか、単に口頭でこれに同意すれば、あなたは好きなだけ無料のキャンディーを手に入れ、あなたがコントロールすることになるでしょう。彼らは何が起こっているのか全く分からないでしょう。そして、超知性では、彼らは私たちよりもはるかに賢いので、私たちは彼らが何を企んでいるか全く分からないでしょう。
インタビュアー:
では、私たちはどうすればいいのでしょうか?
ヒントン氏:
うーん、私たちはそれが制御を乗っ取りたくないように超知能を構築する方法があるかどうかを心配します。もしそれが望むなら、それが制御を乗っ取るのを止める方法はないと思います。ですから、一つの可能性は、決して超知能を構築しないことです。
インタビュアー:
それは可能だと思いますか?
ヒントン氏:
それは考えられますが、起こるとは思いません。なぜなら、国々と企業の間にはあまりにも多くの競争があり、彼らは皆、次の輝かしいものを追いかけており、それは非常に、非常に速く発展しているからです。ですから、私たちが超知能を構築するのを避けることができるとは思えません。それは起こるでしょう。問題は、それが決して制御を乗っ取りたくなく、常に慈悲深いように設計できるかどうかです。それは非常に厄介な問題です。人々は単に、まあ、私たちはそれを人間の利益と一致させるだろうと言います。しかし、人間の利益は互いに一致しません。そして、もし私が直角に交わる2つの線を持っていて、あなたに両方に平行な線を示してほしいと言ったら、それは一種の厄介ですよね?そして、もしあなたが中東を見れば、例えば、一致しない非常に強い見解を持つ人々がいます。ですから、どのようにしてAIを人間の利益と一致させるつもりですか?人間の利益は互いに一致しません。ですから、それが一つの問題です。超知能が乗っ取りたくなく、そして私たちを決して傷つけたくないようにする方法を見つけ出すのは非常に難しいでしょう。しかし、私たちは確かに試みるべきです。
インタビュアー:
試みるというのは…一種の反復的なプロセスですか?月ごと、年ごとに、私たちは試みるのですか?
ヒントン氏:
ええ。ですから、明らかに、もしあなたが、それがあなたよりわずかに知性が低く、私たちは今それに非常に近いときに、乗っ取りたいと思うかもしれない何かを開発するつもりなら、あなたはそれが乗っ取ろうとするために何をするかを見るべきです。ですから、もしあなたが現在のAIを見れば、それらがすでに意図的な欺瞞が可能であることが分かります。それらが自分たちよりも愚かであるふりをすること、あなたが彼らが何を企んでいるか理解できないようにあなたを混乱させるためにあなたに嘘をつくこと。私たちはそれらすべてを非常に認識し、それらすべてを研究し、そしてそれらを行うのを止める方法があるかどうかについて研究する必要があります。
インタビュアー:
数年前にお話ししたとき、あなたが懸念を表明されたことに驚きました。それまであまりそういったことをされていなかったので。そして今、あなたは非常に明確かつ声高に懸念を表明されています。それは主に、これらのことを言うのがより自由になったと感じたからですか?それとも、ここ数年で本当に見方が大きく変わったのでしょうか?
ヒントン氏:
数年前にお話ししたとき、私はまだGoogleで働いていました。それは3月で、私は4月末まで辞職しませんでした。しかし、私はその時辞めることを考えていました。そして、お話しする前に、私は一種のひらめきがありました。そこで私は、これらのものが私たちよりも優れた知性の形態かもしれないことに気づきました。そして、それが私を非常に怖がらせました。
インタビュアー:
以前はそのように考えていなかったのは、単に時間軸が全く違うと考えていたからですか?
ヒントン氏:
いいえ、それだけではありませんでした。それは私がGoogleで行っていた研究のためでした。私は、はるかに少ない電力を使用するアナログ大規模言語モデルを設計できるかどうかを解明しようとしていました。そして、私はデジタルの利点を完全に理解し始めました。ですから、私たちが現在持っているすべてのモデルはデジタルです。デジタルモデルなら、あなたは全く同じ重みを持つ全く同じニューラルネットワークを、いくつかの異なるハードウェア、例えば何千もの異なるハードウェア上で実行することができます。そして、あなたは一つのハードウェアにインターネットの一部分を見させ、別のハードウェアにインターネットの別の部分を見させることができます。そして、各ハードウェアは、私が見たばかりの情報を吸収できるように、私の内部パラメータ、私の重みをどのように変更したいかを言うことができます。そして、これらの別々のハードウェアのそれぞれがそれを行うことができます。そして、それらは単に重みへのすべての変更を平均化することができます。なぜなら、それらはすべて全く同じ方法で同じ重みを使用しているからです。ですから、平均化は理にかなっています。あなたと私はそれができません。そして、もし彼らが1兆の重みを持っているなら、彼らはこの平均化を行うたびに、1兆ビットのような情報を共有しています。今、あなたと私、私が私の頭からあなたの頭へいくつかの知識を得たいとき、私は単にニューロン間の接続の強さを取って、あなたのニューロン間の接続の強さと平均化することはできません。なぜなら、私たちのニューロンは異なるからです。私たちはアナログであり、私たちは非常に異なる脳です。ですから、私があなたに知識を得る唯一の方法は、私がいくつかのアクションを行い、もしあなたが私を信頼するなら、あなたが同じことをするかもしれないように、あなたの脳の接続強度を変更しようとすることです。そして、もしあなたがそれがどれほど効率的か尋ねるなら、まあ、もし私があなたに文を与えるなら、それはせいぜい数百ビットの情報です。ですから、それは非常に遅いです。私たちは1秒あたりほんの数ビットしか通信しません。これらのデジタルシステム上で実行されている大規模言語モデルは、1秒あたり何兆ビットも通信できます。ですから、彼らは情報を共有する上で私たちよりも何十億倍も優れています。それが私を怖がらせました。
インタビュアー:
あなたを驚かせたこと、あるいはあなたの考えを変えたことは、アナログが進むべき道だと考えたことですか?
ヒントン氏:
いいえ。私はもし私たちがはるかに少ない電力消費にしたいなら、アナログで行うことが可能かどうかを考えるべきだと考えていました。はるかに少ない電力で使用できるためには、システムの設計においてはるかに大雑把になる必要があります。何が起こるかというと、あなたが正確に指示したことを行うシステム、つまりコンピュータであるシステムを製造する必要がなくなります。たくさんの大雑把さ(sloppiness)を持つシステムを製造し、その大雑把なシステム自体が使用方法を学びます。それが私たちの脳です。
インタビュアー:
この技術はもはやその解決策(アナログ)に向かう運命ではなく、デジタルの解決策に固執するようになると思いますか?
ヒントン氏:
おそらくデジタルの解決策に固執するでしょう。今、私たちがこれらのデジタルコンピュータにより良いアナログハードウェア、私たちよりも優れたものを設計させることができる可能性は十分にあります。私はそれが長期的な未来かもしれないと思います。
インタビュアー:
あなたはこの分野に入ったのは、脳がどのように機能するかを知りたかったからですよね?
ヒントン氏:
はい。
インタビュアー:
これを通じて、それに近づいていると思いますか?
ヒントン氏:
私はしばらくの間そうだったと思います。私は私たちが脳がどのように機能するかについて、非常に一般的なレベルで多くを学んだと思います。30年前、あるいは50年前に、もしあなたが人々に「あなたはランダムな接続強度を持つ大きなランダムなニューラルネットワークを持つことができ、そしてそれにデータを見せて、誰かが言っていることを認識したり、質問に答えたりするような難しいことを学ぶことができますか、単にたくさんのデータを見せることによって」と尋ねたとしましょう。ほとんどすべての人が「それは狂っている。それをやる方法はない。それは進化から来るたくさんの事前に配線された構造を持っていなければならない」と言ったでしょう。まあ、彼らが間違っていたことが分かりました。大きなランダムなニューラルネットワークを持つことができることが分かりました。そして、それはデータから学ぶことができます。今、それは私たちがたくさんの事前に配線された構造を持っていないという意味ではありませんが、基本的に私たちが知っていることのほとんどは、これらすべての事前に配線された構造からではなく、データから学ぶことから来ています。ですから、それは脳を理解する上での大きな進歩です。今、問題は、脳がどのようにして学習に必要な情報、つまり接続強度を増減させるべきかどうかを伝える情報をどのように得るかです。もしあなたがその情報を得ることができれば、私たちはランダムな重みで始まる大きなシステムを訓練して素晴らしいことをすることができることを知っています。脳はそのような情報を得る必要があり、それはおそらく、バックプロパゲーションと呼ばれる、これらの大きなAIモデルで使用される標準的なアルゴリズムとは異なる方法でそれを取得します。脳はおそらくバックプロパゲーションを使用していません。誰もそれがどのようにしてそれを実行できるかを解明できません。それはおそらく勾配情報、つまり重みを変更することがどのようにパフォーマンスを向上させるかを、異なる方法で取得しています。しかし、私たちは今、それがその素晴らしい情報を得ることができれば、それが学習において本当に効果的であり得ることを知っています。
インタビュアー:
現在、いずれかの研究所が、AI開発における新しいアイデアを追求するために、自分たちのモデルを使用しているかご存知ですか?
ヒントン氏:
ほぼ確実に。そして特に、DeepMindは科学を行うためのAIの使用に非常に興味を持っています。そして、科学の一部はAIです。
インタビュアー:
それはあなたがそこにいたときに試みていたことですか?つまり、次のイノベーションはAI自身によって生み出されるかもしれないという、このブートストラッピングの考え方のようなものです。
ヒントン氏:
その要素はあります。ですから、例えば、彼らはAIに使用される予定のチップ上のレイアウトを行うためにAIを使用していました。ですから、GoogleのAIチップ、テンソルプロセッシングユニット。彼らはそれらのチップを開発するためにAIを使用しました。
インタビュアー:
日常の生活の中で、絶望したり、未来を恐れて、あまり良くならないだろうと考えたりしますか?
ヒントン氏:
私は絶望しませんが、それは私でさえそれを真剣に受け止めるのが非常に難しいからです。私たちが歴史上この非常に、非常に特別な時点にいるという事実、比較的短い時間ですべてが完全に変わるかもしれない、私たちがこれまでに見たことのない規模の変化、という事実に頭を慣らすのは難しいです。
インタビュアー:
それはそうです。そして、人々がおそらく懸念しているにもかかわらず、抗議を見たことがないことに気づきます。この考えに関する真の政治運動はありません。世界は変化しているのに、誰もそれほど気にかけていないようです。
ヒントン氏:
AI研究者の間では、人々はそれについてより認識しています。ですから、私が知っている、それについてある種最も落ち込んでいる人々は、真剣なAI研究者です。私は実用的なことをし始めました。例えば、AIはサイバー攻撃の設計に非常に優れているため、カナダの銀行はもはや安全ではないと思います。ですから、カナダの銀行はあなたが得ることができる限り安全です。それらは米国の銀行と比較して非常によく規制されています。しかし、今後10年間で、カナダの銀行をダウンさせるサイバー攻撃があったとしても、私は全く驚かないでしょう。
インタビュアー:
ダウンとはどういう意味ですか?
ヒントン氏:
例えば、銀行が私が所有する株を保有しているとしますよね?サイバー攻撃がそれらの株を売却したとします。今、私のお金はなくなりました。ですから、私は実際に今、私のお金を3つの銀行に分散させています。
インタビュアー:
それがあなたのマットレス(衝撃緩和方法)ですね。
ヒントン氏:
それが私が実際に行った最初の実用的なことです。なぜなら、もしサイバー攻撃がカナダの銀行の一つをダウンさせれば、他の銀行はずっと真剣になると思うからです。
インタビュアー:
そのようなことは他にありますか?他に、つまり…
ヒントン氏:
それが主なことです。それが、非常に怖い時代が来ているという私の信念から流れ出た、私が実際に行った実用的なことです。
インタビュアー:
2年前にお話ししたとき、あなたは「AIはイディオ・サヴァン(特定の分野にのみ異常な才能を示す人)のようなものだが、人間は依然として推論においてはるかに優れている」と言いましたよね?それは変わりましたか?
ヒントン氏:
変わりました。以前は、大規模言語モデルが行うことは、一度に一つの単語を吐き出し、それで終わりでした。今、大規模言語モデルは単語を吐き出し、そして吐き出した単語を見ています。そして、まだ質問の答えではない単語を吐き出すし、また単語を吐き出すでしょう。それは思考の連鎖(Chain of Thought)推論と呼ばれています。そして、今、彼らはすでに吐き出した単語について反映することができます。そして、それは彼らにいくつかの思考を行う余地を与えます。そして、あなたは彼らが何を考えているかを見ることができます。それは素晴らしいです。あなたが研究者なら素晴らしいことです。そして、昔ながらのAIを考えている多くの人々は、「まあ、ご存知のように、これらのものは推論できません。それらは推論できないので、実際には知的ではありません。そして、あなたは昔ながらのAIを使用して、物事を論理形式に変換して適切な推論を行う必要があるでしょう」と言いました。まあ、彼らは全く間違っていました。ニューラルネットが推論を行うことになるでしょう。そして、彼らが推論を行う方法は、この思考の連鎖、つまり彼らが反映しないものを吐き出すことによるものです。
インタビュアー:
冒頭で、過去2年間で開発が予想よりも速かったとおっしゃいました。その例は他にありますか?「わあ、これは速い」と思われたようなことは?
ヒントン氏:
それが主な例です。それは画像などの生成もはるかに得意になりましたが、主なことは、それが今やかなりうまく推論を行うことができるということです。
インタビュアー:
そして、その思考を見ることができる、というのは、なぜ重要なのか、あるいは、それが意味のあるどこにつながるのでしょうか?
ヒントン氏:
まあ、彼らが何を考えているかを見ることができるのは非常に良いことです。なぜなら、あなたがそれに目標を与えるこれらの例があるからです。あなたはそれに目標を与え、そしてあなたはそれが人々を欺瞞することによってこの目標を達成しようと推論しているのを見ることができます。そして、あなたはそれがそれをしているのを見ることができます。それはまるで、あなたの頭の中の声を聞くことができたかのようです。
インタビュアー:
他にも、私たちがもっと言いたいことがあるかもしれません。多くのテクノロジー界の人物が、現在ワシントンDCで重要な役割を担っていることは注目に値します。まさにこの瞬間に、ワシントンDCが行うことが、この技術の進化、規制にとって本当に重要になる可能性があります。そのことはあなたを懸念させますか?それをどう見ていますか?
ヒントン氏:
それらのテクノロジー界の人物は、主に彼らの会社の利益に関心を持っています。ですから、それは私を大いに懸念させます。
インタビュアー:
強力な規制がない限り、あるいはこの営利モデルから離れない限り、物事が本当に変わるとは思えません。そして、それらのことが起こるとも思えません。
ヒントン氏:
もし一般市民が何が起こっているかを理解すれば、彼らはAI企業がこれをより安全に開発するように政府に多くの圧力をかけるだろうと思います。それが私ができる最善のことです。それはあまり満足のいくものではありませんが、それが私が考えることができる最善のことです。
インタビュアー:
そして、より安全に、とは、それらの企業からのリソースが安全性研究により多く向けられることを意味しますか?
ヒントン氏:
はい。例えば、彼らが安全性研究に費やすコンピュータ時間の割合は、3分の1のような有意な割合であるべきです。現在、それははるかに、はるかに少ないです。他よりも安全性に関心を持っている会社が一つあります、Anthropic。それはOpenAIが安全性に十分に関心を持っていなかったためにOpenAIを去った人々によって安全性に関心を持つように設立されました。そして、Anthropicは安全性研究により多くの時間を費やしていますが、それでもおそらく十分ではありません。
インタビュアー:
多くの人の見解として、OpenAIはこれらの問題について良いことを言ってきたが、それらの価値観を実践していない、というものがあります。それはあなたの見方ですか?
ヒントン氏:
はい。
インタビュアー:
その証拠として何をご覧になっていますか?
ヒントン氏:
彼らの最高の安全性研究者が皆、彼らもそう信じていたために去ったこと。彼らが安全性を開発するために設立された会社であり、彼らの主な目標は利益を上げることではなく、安全性を開発することであったこと、そして彼らが今、営利企業に変更することを許可するようにカリフォルニア州司法長官にロビー活動をしていること。それにはたくさんの証拠があります。
インタビュアー:
そして、人々がより安心できるような、良い活動家として誰かをここで挙げる機会をあなたに与えるべきだと思います。あなたはAnthropicについて言及しましたが、それは名前ですか、それとも…
ヒントン氏:
企業の中ではAnthropicが最も安全性に関心があり、OpenAIを去った安全性研究者の多くがAnthropicに移籍しました。そのため、Anthropicは安全性に関心を持つ文化がはるかに強いです。しかし、彼らは大企業からの投資を受けています。
インタビュアー:
ええ、どこかからお金を得なければなりません。
ヒントン氏:
そして、私はそれらの投資が彼らを、彼らがすべきよりも早く物事をリリースするように強制するのではないかと心配しています。
インタビュアー:
そして、私があなたにどの企業で働くのが快適かと尋ねたとき、あなたは「なし」と言ったと思います、あるいは単にGoogleだけかもしれないと。
ヒントン氏:
私はGoogleかAnthropicかもしれないと言うべきでした。
インタビュアー:
この時間に、そして今日の残りの時間に感謝します。本当にありがとうございます。
ヒントン氏:
あなたはまだ残りを得ていません。
インタビュアー:
私はまだ得ていません。期待しています。
コメント