AI,technology関連

AI、technology関連の事を載せています

人工知能技術を巡るOpenAIのCEOサム・アルトマン氏との対談

 

 

youtu.be

 

今回はこちらの動画の文字おこしをGEMINIを使って翻訳しました

ざっくりとした翻訳になっておりますので、暇つぶしがてら読んでいただけてらと思いますが、GPT5の事や、年末にあったサムアルトマン解任事件の事など色々なトピックに関する情報が詰まっておりますので、お楽しみください!

動画のほうでも、日本語字幕が付いてりますので、日本語しかわからない私にとってはとても助かりました!

では、翻訳文章をどうぞ!

 

 

レックス・フリードマンポッドキャストへようこそ。今回のゲストは OpenAI の CEO であるサム・アルトマン氏です。OpenAI は GPT-4、ChatGPT、Sora などの人工知能技術を開発しており、将来的には人工一般知能 (AGI) を開発する会社になるかもしれません。

今回の会話では、アルトマン氏が率いる OpenAI を巡る騒動について取り上げます。これはおそらく、アルトマン氏にとって仕事人生で最もつらい経験だったようです。本人はこの騒動を「痛みを伴う」「混乱した」「恥ずかしい」「腹立たしい」などの言葉で表現しています。

しかし、その中にはポジティブな要素もあったと語っています。ただ、あまりに急展開だったため、そのポジティブな面に気づく余裕がなかったことも残念がっていました。

騒動中、アルトマン氏はある興味深いツイートを見つけました。それはまるで自分の弔辞を読んでいるような感覚で、多くの人から好意的な言葉をかけられたといいます。特に、愛する人や気にかけている人からのサポートは嬉しかったそうです。

騒動中、アルトマン氏は「嫌悪」よりも「好意」を感じる瞬間が多かったと振り返ります。状況が全く掴めず、これからどうなるかも分からない中、不安ではありましたが、多くの好意を感じたといいます。

また、騒動が起きたことはある意味で幸運だったとも話しています。OpenAI が AGI を開発するまでの間に、何か予期せぬ事態が起こると予想していたからです。今回の騒動は、そうした事態への耐性を高めるのに役立ったと考えています。

最後に、アルトマン氏は「AGI をめぐる道のりは、巨大な権力闘争になるだろう」と予測しています。


アルトマン氏の発言によると、取締役会構造、組織形態、協力者選び、コミュニケーション方法をいかに改善していくかが重要だといいます。これにより、権力闘争を最小限に抑え、穏やかにすることができるでしょう。

しかし、当のアルトマン氏にとっては不快で困難な出来事だったと振り返ります。現在は仕事に戻り、忙しくしているため、あまり過去を振り返る時間はないようです。

騒動後、アルトマン氏は約1ヶ月間、ぼんやりと過ごしていたといいます。精神的に参っていたため、ただ日々をやり過ごすだけで精一杯だったそうです。レックスが「個人的な精神的なレベルで」と尋ねると、アルトマン氏は「そうだ、本当につらかった」と答えています。OpenAI を運営しなければならなかったのは本当に大変だったようで、「洞窟にこもって回復したい」とも漏らしています。

しかし、現在は再び OpenAI のミッションに打ち込んでいるといいます。レックスは、取締役会構造や権力構造、企業運営方法、研究と製品開発、資金調達など、さまざまな要素を振り返ることは、将来的に AGI 開発を進める際に役立つだろうと助言します。より組織的に、そして穏やかな形で開発を進めることができるようになるからです。リーダーとしての個人的な心理的側面だけでなく、取締役会構造などの複雑な問題にも向き合う必要があるのです。

アルトマン氏はこの騒動から、組織構造やインセンティブ設定、求めるべき取締役会像などについて多くのことを学んだと話します。また、ある意味で今回の出来事は幸運だったとも考えています。OpenAI にとっては今後、おそらく最後の高ストレス体験ではないでしょうが、今回は会社が潰れる寸前まで追い込まれました。

OpenAI は AGI 開発のために必要な要素を多く考慮していますが、組織のレジリエンスを高め、今後予想される圧力に耐えられるような構造を築くことも非常に重要だと考えています。

取締役会の審議プロセスがどれほど深堀され、厳格だったのか、またこのような状況における人間関係については、圧力下での業務遂行が求められる取締役会とチームを作る必要があるだろうとアルトマン氏は話します。

取締役会に過剰な権限があったのではないかという質問に対して、アルトマン氏は取締役会は本来力を持ちうる存在であると答えます。しかし、企業の構造上、取締役会は通常株主に対して責任を負います。ただ、今回の OpenAI のような非営利団体の場合は、特別なルールを設けない限り、取締役会は自分たち以外には対する責任がなく、多くの権限を持つことになります。

この構造には良い面もありますが、OpenAI としては取締役会が可能な限り世界に対して責任を負うことを望んでいます。

話題は新しい取締役会に移ります。新しい取締役会では何が改善されたのでしょうか?

以前の取締役会は1年かけて縮小され、最終的には9人から6人になりました。しかし、その後新たなメンバーを追加することについて合意できませんでした。また、経験豊富な取締役が少なかったことも問題でした。新設された取締役会では、経験豊富なメンバーが増員されており、改善が期待されます。

取締役会のメンバー選出については、ラリー・サマーズ氏の選出に対して批判があったことが話題に上ります。選出プロセスはどのようなものだったのでしょうか?

ブレット氏とラリー氏の選出は、緊迫した週末に行われました。取締役会と執行チームの双方が妥当と考える人物で、新しいメンバーを選出することが求められました。

ラリー氏に関しては、実は以前の取締役会からの推薦でした。ブレット氏については、週末以前にも提案がありましたが、多忙で断っていました。

最終的に、アルトマン氏自身が復帰する条件として、新しい取締役会メンバーが必要だと判断されました。以前の取締役会メンバー全員とは継続して仕事ができないと考えられたのです。

アダム・リース氏は残留を決めてくれましたが、取締役会は3人構成にすることが望ましいとされ、短期間で2人の新メンバーを見つけなければなりませんでした。このメンバー選出は、時間的な制約があったため、厳密なプロセスではなく、戦場での判断のようなものだったとアルトマン氏は振り返ります。

今後追加される新しい取締役会メンバーについては、より計画的なプロセスで行われるようです。

新しい取締役会の選出にあたっては、取締役会が持つべき専門性について基準が設けられています。1人の幹部を採用するのと違い、取締役会は包括的なガバナンスと思慮深さを求められます。

その点で、アルトマン氏はブレット氏の提案を気に入っており、取締役会メンバーは個々別ではなく、候補者リストとしてまとめて採用したいと考えています。非営利団体運営の専門知識、企業運営の専門知識、法務・ガバナンスの専門知識など、バランスのとれた取締役会を目指しています。

では、技術的な知識は取締役会メンバーにとって重要なのでしょうか? アルトマン氏は全てのメンバーが持つ必要はないが、何人かは持つべきだと答えています。

一般の人々は OpenAI の経営実態をあまり理解していないだろうとアルトマン氏は推測します。ドラマのような騒動ばかりが注目されますが、もし OpenAI が AGI を開発したり、インパクト絶大な製品を生み出した場合、取締役会との話し合いはどのようなものになるのでしょうか? そういった状況で適切な議論ができるメンバーは誰なのかと疑問に思うでしょう。

アルトマン氏は、技術の専門家はもちろん必要ですが、同時に「この技術を世の中の人の役に立てるようにするにはどうすればいいのか」という視点を持ったメンバーも必要だと話します。自分自身やレックス・フリードマンのような人間が陥りやすい間違いは、技術的理解だけが重要だと考えてしまうことです。取締役会での議論には確かに技術的な側面も必要ですが、それ以上に、技術が社会や人々の生活に与える影響についても議論すべきなのです。

取締役会メンバーを選ぶ際には、実績を重視するのでしょうか? 

レックスはアルトマン氏に、あの週末で精神的に落ち込んだことは何かと尋ねます。アマゾンのジャングルに行ってアヤワスカを服用し、姿を消すことも考えたかと冗談めかして聞きます。

アルトマン氏は、あの期間は非常に辛かったが、好意的な出来事もあったと答えます。仕事仲間や久しぶりに話した人から、絶え間なく励ましのメッセージが届いたのです。ただ、あまり感謝の気持ちを表せなかったと振り返ります。火事場の真っ只中にいたからです。

しかし、全体的には非常につらい週末だったと話し、驚くほど公の場で戦わなければならなかったことも精神的に消耗したと語ります。戦いは一般的に消耗するものですが、今回は特にそうでした。

取締役会は金曜日の午後に動き出し、アルトマン氏はほとんど答えを得られませんでしたが、「取締役会にはその権利がある」と考えたそうです。そして、この出来事の良い面を探そうとし、OpenAIでの今の仕事は「まともなサイズの会社を運営するようなものだ」と感じていました。

アルトマン氏がずっとやりたかったのは、研究者たちと直接働くことでした。そして、「純粋にAI研究に集中できる。ワクワクする」と思ったそうです。この時点で、事態が好転する可能性があるとは思っていませんでした。

金曜日の午後、初めてOpenAIの執行チームから連絡があり、戦うつもりだと知らされます。その夜は興奮したまま眠りについたと振り返ります。

レックスは、眠れたのかと尋ねます。アルトマン氏は、4日半ほどほとんど眠らず、食事もあまり取らない奇妙な期間があったと話します。それでも、驚くほどのエネルギーがあったそうです。アドレナリンの影響を実感したと語ります。

レックスは、「OpenAIという赤ん坊の死を受け入れたのか」と要約します。アルトマン氏は「受け入れた」と答え、新しいことにワクワクしていると締めくくる

土曜日の午前中、取締役会メンバー2人がアルトマン氏に電話をかけてきます。「混乱させてしまって申し訳ない。状況を立て直す術はないだろうか?君に戻ってきてほしい」と持ちかけられます。

アルトマン氏は当初断りますが、スタッフやパートナー、株主のことを考え直し、復職の条件を提示します。

そして、週末を通して最もつらい時間だったのが、OpenAI を立て直そうとする自分たちと、それを潰そうとする外部勢力とのせめぎ合いだったと言います。スタッフは世界中からの引き抜き工作などにも対応しなければならず、いつ終わるかわからないままの状態が続きました。

日曜日の夕方、また数時間後に復職の話がまとまるかと思われた矢先、取締役会は新たな暫定CEOを選任します。これがアルトマン氏にとってのどん底だったと語ります。

しかし、怒りや嫌悪感よりも、多くの人からの好意を感じたとも話します。愛が週末の支配的な感情だったと振り返ります。

話題はミラ・ムラティ氏に移ります。アルトマン氏は、ツイートで「静かな時にこそ、少し方向転換してみるべきかもしれない」とミラ氏を称賛しています。アルトマン氏がミラ氏を尊敬するのはなぜでしょうか?

アルトマン氏によれば、ミラ氏は混乱した週末に素晴らしい仕事をしたものの、リーダーというのは危機的な状況での振る舞いだけでなく、普段の何気ない火曜日の午前9時46分のような場面、毎日の退屈な仕事の中で会議にどのように出席するか、どのような判断を下すのかといったことが重要だと言います。静かな時間というのはそういう日常的な場面のことを指しているのです。

つまり、目立った出来事だけではなく、日々の積み重ねが大切だということです。

アルトマン氏は、ここ20分間はドラマチックな週末の話をしてきたが、OpenAIの本質は別のところにあると強調します。OpenAIは過去7年間の積み重ねが大切なのだと。

レックスはイリヤ・サットスカバー氏について話題を振ります。イリヤ氏は秘密の核施設に人質として監禁されているのではないかと冗談めかして尋ねます。

アルトマン氏は否定しますが、レックスは「これはいつかミームになるだろう」と冗談を続けます。レックスはアルトマン氏とイリヤ氏の関係について尋ねます。

アルトマン氏はイリヤ氏を尊敬しており、共に仕事ができればと思っていると話します。また、イリヤ氏が AGI(人工一般知能)を目撃したという噂についても否定します。

イリヤ氏は慎重な人物で、AGI を安全に開発するための議論をアルトマン氏と重ねてきたと語ります。レックスはイリヤ氏が寡黙なのは魂の探求をしているからではないかと推測しますが、アルトマン氏は本人に尋ねるべきだと答えます。

イリヤ氏は物静かな人柄ですが、ユーモラスな一面もあるとレックスが話すと、アルトマン氏は興味深そうに答えます。

レックスはイリヤ氏が子犬と遊んでいるのを見たことがないと話します。アルトマン氏もイリヤ氏のユーモラスな一面を見たことがないと話しますが、最近夕食会で目撃したと語ります。

話題は OpenAI の取締役会と今後の展望に移ります。アルトマン氏は新しい取締役会には満足感を持っていると答え、今後 OpenAI の構造強化も検討していくと話します。

今回の騒動を通して、取締役会の構造について学ぶことができたと振り返ります。

一連の騒動を「クレイジーで非常に痛ましい経験」だったと表現し、プレッシャーが高まるにつれて強固なガバナンス構造やプロセス、人材が必要になるだろうと予測します。今回のような出来事は好機だったとも話しますが、同時に非常に辛い経験だったとも話します。

レックスは、今回の出来事で人を信じるのが難しくなったのではないかと尋ねます。アルトマン氏は肯定的に答えます。

レックスは自分は人を信じやすい性格だと話します。用心深くなるよりもオープンに生きるべきだという考えを持っていたと話すレックスに対し、アルトマン氏はショックを受け、考えが変わってしまったと答えます。

レックスは、あまりに猜疑心を持つようになるのは良くないと助言します。アルトマン氏は自分はもともとあまり猜疑心を持たない性格だと言いますが、人を無条件に信用しなくなるのは心配だと話します。

レックスは、AGI 開発者にとって信用と不信のどちらが望ましい資質なのか疑問を投げかけます。

そして話題は、優れた人材を採用し賢明な意思決定ができる組織作りへと移ります。資金力が増えるにつれて、奇妙な人が集まってくるようになるだろうとレックスは話します。

取締役会メンバーや信頼性に関するレックスのコメントに対して、アルトマン氏はスタッフについては非常に感謝しており、信頼していると言い返します。

話題はイーロン・マスクによる OpenAI の訴訟に移ります。レックスはイーロン・マスクの主張の核心は何であるかと尋ねます。

アルトマン氏は「よく分からない」と答えます。OpenAI は当初、研究ラボとして立ち上げられ、この技術がどう発展していくのか見当もつかなかったと振り返ります。

当時はまだ言語モデルが注目を集めておらず、API やチャットボットのアクセス販売のことも考えていませんでした。製品化の構想すらなかったのです。手探りで研究を進め、当初の想定はほとんどが外れたと振り返ります。

状況が変わり、巨額の資金が必要になったため、OpenAI の構造を変更しなければならなくなったと説明します。試行錯誤を繰り返し、今のようなやや不可解な構造になったのだと説明します。

しかし、過去一つ一つの意思決定は妥当だったと考えています。最初から全てわかっていれば違う形にしていたかもしれないものの、そうした情報はないまま進んできたのだと話します。

イーロン・マスクの本当の動機は分からないとアルトマン氏は答えます。

OpenAI がブログ記事で出した返答について、レックスが内容をまとめるよう求めますが、アルトマン氏はイーロン・マスクの主張と OpenAI の見解の違いを感情的にならずに歴史的に説明したものだと話します。

レックスはイーロン・マスクによる「当初の不確実さの度合い」の主張について、事実誤認があると指摘します。

当時は少人数の研究者がAGIについて熱く語っており、誰もが笑っていたとレックスは振り返ります。

レックスは、イーロン・マスク自身もロケット打ち上げを主張していて当時は笑われていたことを指摘し、イーロン・マスクは共感してくれるはずだと話します。

レックスは、イーロン・マスクとの間に個人的な確執があったのではないかと推測します。

アルトマン氏は、イーロン・マスクは OpenAI が失敗すると考えており、立て直すために完全な支配権を求めていたと説明します。

OpenAI は現在の路線を続けることを望んでおり、イーロン・マスクはテスラでも AGI 開発ができるようにしたかったそうです。

また、イーロン・マスクは OpenAI を自身が支配できる営利企業にするか、テスラと合併させたいと考えていたこともあったそうです。

OpenAI はそれに応じず、イーロン・マスクは去ったとアルトマン氏は話します。

ブログ記事で言及されていたのは、イーロン・マスクが OpenAI をテスラに買収させたり、マイクロソフトとのパートナーシップよりも強力な支配を望んでいたという点でした。

アルトマン氏の話によると、イーロン・マスクの提案はテスラによる完全な買収だったそうです。

レックスは、OpenAI における「Open」という言葉がイーロン・マスクにとって当時何を意味していたのか、そしてアルトマン氏にとってはどうだったのか尋ねます。

アルトマン氏は、今なら違う名前を選ぶだろうと振り返ります。OpenAI が最も重要だと考えているのは、強力な技術を無料で公開し、公共財にすることです。

無料版には広告がなく、他の方法での収益化も行っていません。ただミッションの一部だと考えているからです。

OpenAI はますます強力なツールを無料で人々に渡し、使ってもらうことを目指しています。

人々に優れたツールを与え、使い方を教えなくても、自分たちで使い方を見つけ出し、素晴らしい未来を築いていくことができれば、それは大きな意味を持つとアルトマン氏は話します。

無料、または低コストで強力な AI ツールを世に出し続けることができれば、ミッション達成に大きく貢献できるでしょう。

オープンソースか否かについては、一部は公開すべきだが、全てではないとしています。

ニュアンスが重要だとアルトマン氏は考えますが、論争は宗教論争のようになりがちだそうです。

レックスは、イーロン・マスクが「名前を ClosedAI に変えれば訴訟を取り下げる」と言ったのかどうか尋ねます。

アルトマン氏は、冗談にもならない話だと呆れています。

レックスは、訴訟自体が法的根拠のあるものではなく、AGI の未来と現在それを主導している企業についての主張を世に知らしめるためのものだと考えています。


レックスは、Grok が少し偽善的だと指摘された後にオープンソース化を発表したことを話題に出し、イーロン・マスクにとってオープンソースかどうかが争点ではないだろうと推測します。

話題は訴訟に移ります。レックスは、建設的な競争は好ましいが、訴訟は好きではないと話します。

また、今回の件は偉大な建設者であるイーロン・マスクらしくないと残念がります。多くの人が失望しており、昔のイーロン・マスクが恋しいと感じる人も多いとレックスは話します。

レックスは、イーロン・マスクが作った「Grok」が「GPT」を打ち負かし、互いに切磋琢磨していくのが理想的な展開だと言います。

そして話題はオープンソースに移ります。レックスは、Meta が驚くべき先駆者であり、最先端モデルではないものの Llama をオープンソース化したことを指摘します。

Google も小規模なモデルのオープンソース化を検討していると話します。

レックスは、オープンソースの是非について尋ね、アルトマン氏は小規模なモデルのオープンソースには需要があると答えます。エコシステムは他の分野と同様に、オープンソースとクローズドソースが共存していくだろうと言います

レックスは訴訟に関するポッドキャストで聞いた話を持ち出し、非営利団体から営利団体への移行の是非について尋ねます。

アルトマン氏は、非営利団体として設立して後に営利部門を追加することを考えているスタートアップを強く止めると答えます。

また、今回のような事例は先例にならないだろうとも話します。

レックスは、今後数年間でイーロン・マスクとの関係がどうなるか、友情になるのか、友好的な競争になるのか尋ねます。

アルトマン氏は、イーロン・マスクを尊敬しており、将来的には友好的な関係を築ければいいと考えています。

レックスは、才能獲得競争はあるだろうが、友好的なものであってほしいと話します。

そして話題は OpenAI の新モデル「Sora」に移ります。レックスは、製品としても哲学的にも素晴らしいと感想を述べ、GPT-4 との違いについて尋ねます。

アルトマン氏は、どのモデルも私たちが思っている以上に世界のモデルを理解していると答えます。

理解できていないことも明白であり、弱点に注目しがちですが、全てが偽物ではなく、部分的には機能しているのだと説明します。

Sora のデモ動画で、人が物体の前に数秒間立って塞ぎ、その後去っても物体がきちんと表示されていることに言及し、感心していると話します。

また、長いシーケンスでも下地の物理法則が適切に表現されている例があると話します。

DALL-E 1 から 3 そして Sora への進化についても言及し、それぞれのバージョンで ске (げ) 疑 (ぎ) 的な声があったことを振り返ります。

レックスは、物体にかくされた部分の処理について、3D世界の物理法則をモデル化しているのではないかと推測します。

アルトマン氏は、何かしらの処理が行われており、優れた3D世界のモデルを持っているように見えるが、2次元の訓練データだけで達成できるかどうかは定かではないと答えます。

この手法は驚くほど成果を上げそうです。限界はどこにあるのか、軽はずみな推測はしたくないですね。

制限に関して面白い発見はありましたか? 面白いものを見つけていくつか投稿されていましたよね。

例えば猫の動画で、ランダムな場所で余分な体が生えてくるとか。面白い例は色々ありますが、まだまだ多くの問題や弱点があります。

猫の体が増えるといった極端なミスは、根本的な手法の問題なのでしょうか、それとも単にモデルを大きくしたり、技術的な詳細を改善したり、より多くのデータを使えば解決するのでしょうか。

その両方だと思います。この手法は、私たちが考える思考や学習とは根本的に違うように感じられます。スケールが大きくなれば改善されると思いますが。

LLMはトークン、つまりテキストのトークンを使います。Soraは視覚パッチを使用していて、動画や画像など様々な種類の視覚データをパッチに変換しています。

訓練は完全に教師なし学習だと言えるのでしょうか? 手作業によるラベル付けは行われていますか? この作業には人間がどれくらい関わっているのでしょうか。

Soraの手法については具体的に言えませんが、私たちの仕事では大量の人間データを使っています。

大量のインターネットデータではないのですね。人間が大量に関わっているということですね。

「大量」というのはこの場合妥当な表現だと思います。

ただ僕の場合、内向的な性格なので、3人くらいと会えば大勢だと思ってしまいます。4人だとかなり多いですね。

でも、おそらくあなたはもっと多くのという意味ですよね。

ええ、データのラベル付けには3人以上の人間が関わっています。

なるほど。基本的には教師なし学習が大量に行われているのですね。

技術報告書で言及されていたインターネット・スケールのデータですが、これもまた魅力的ですね。まるで詩のようです。つまり人間がラベル付けをしていない大量のデータということですね。その意味では教師なし学習が行われています。

そうなると、教師なし学習に適した、この種の方法で使えるインターネット上のデータはどれくらいあるのでしょうか? もし教師なし学習の詳細がわかればの話ですが。

公開を検討したことはありますか? 特にソースについて詳しく公開することは考えていますか? とても興味深いので。

LLMのマジックを今度は視覚データに応用できるのでしょうか? それには何が必要ですか?

可能だとは思っていますが、まだやるべきことがたくさんあります。

もちろんその通りです。危険性は何ですか? このシステムのリリースを懸念しているのはなぜですか? 考えられる危険性にはどのようなものがありますか?

率直に言うと、リリースする前にやらなければならないことの 1 つは、人々が求めるスケールを実現できるほどの効率性を持たせることです。その点を軽視するつもりはありませんが、そこにはまだ多くの作業が必要です。

しかし、ディープフェイクや誤情報などの問題が生じることも考えられます。私たちは世の中に送り出すものを慎重に検討する企業であり、この技術が悪用される可能性について考えるのは難しくありません。

コピーライト法におけるフェアユースの適用について、AI の学習データはフェアユースに当たるのかという質問がされています。

アルトマン氏は、貴重なデータを作成した人々がその使用に対して何らかの補償を受ける権利があるべきかと考え、答えはまだ出ていないものの、アーティストが自分のスタイルで作品を作られることを拒否できる権利と、自分のスタイルで作品が作られた場合に何らかの経済的モデルが欲しいだろうと答えます。

これは、CDからNapsterへ、そしてSpotifyへと移り変わった音楽配信の変遷と同じく、何らかの新しいモデルを見つけ出す必要があると指摘します。

さらには、人間が素晴らしいものを作るためのインセンティブが必要であり、社会はそれに報いる方法を見つけるだろうと楽観的な考えを示します。

芸術家やクリエイターが Sora を見て不安を感じる気持ちも理解しつつ、写真が誕生した時も同様の不安があったが、写真が新しい芸術形態となり、写真撮影で稼ぐ人も現れたように、今回も新しいツールが新しい使われ方をしていくのだと答えます。

今後 5 年で YouTube のコンテンツはどれくらい AI 生成になるのかという質問に対しては、AI が仕事を奪うというよりも、AI がどのくらいのタスクをこなすようになるかを考えるべきだと答えます。

AI は単純作業から複雑な作業までこなせるようになるだろうが、人間の仕事が全て置き換わるのではなく、より高度な作業に携われるようになるだろうと述べています。

同じように、YouTube の動画も制作過程で AI ツールが使われるようになるだろうが、根本的には人間のアイデアや編集によって作られるものだと締めくくります。

人が人間を見るのが好きなのは興味深いですね。怖いけど考えるだけでもワクワクします。人間は結局、人間同士の交流を好む傾向にあると思います。

ちょっとの間は凄いものに興味を示すかもしれませんが、すぐに人間同士の関心にに戻ります。

そこには本能的な部分が大きいのでしょうね。

チェスだって人間は下手なのに、AIの登場を無視してゲームを続けるようなものです。

車だって人間よりずっと速いですよね。そういう例はたくさんあります。

動画編集ソフトみたいに、動画作成をずっと簡単にするツールになるのかもしれません。

僕みたいにカメラ嫌いには朗報ですね。カメラの前に立たなくて済むなら最高です。

でも、顔の生成はまだ発展途上です。一般の人ならまだしも、特定の人物の顔を動画で生成するのは難しいですね。

話題を GPT-4 に移しましょう。こちらも素晴らしいですね。歴史的にも大きな節目になるでしょう。

5がターニングポイントになるかもしれませんね。未来のことはわかりません。

未来は予測不可能なのが厄介なところです。

GPT-4 を振り返ると、ChatGPT は歴史的にも印象的です。

GPT-4 と GPT-4 Turbo で一番驚かされたのは何ですか?

ちょっとがっかりですね。人間は素晴らしいものに慣れちゃうんですよね。

いや、素晴らしいものだとは思いますが、目指すべき地点や到達できるはずの地点と比較すると、

GPT-3 の頃には「なんて素晴らしい技術なんだ!」と驚嘆していましたが、

今 GPT-4 があって GPT-3 を見ると、想像できないくらい酷い代物に見えます。

5 と 4 の差も 4 と 3 の差と同じくらいになるんじゃないかと期待しています。

我々の仕事は少し未来を生きて、今のツールは振り返るとショボく見えるようになることを認識し、

より良い未来を創るための努力をすることだと思っています。

GPT-4 の「輝かしい欠点」とはどういうところでしょうか? 

GPT-4 の「長所の中の短所」についての話です。

サミーは、GPT-4 の限界が見えてくるからこそがっかりするものの、その限界が逆に希望を与えると話します。

具体的には、ブレインストーミングのパートナーとして GPT-4 を使っているそうで、アイデア出しや問題解決の新しいアプローチを考えるのに役立つとしています。

また、長期的なタスクに対して、いくつかのステップに分けて部分的に実行したり、情報を検索したり、コードを書いたりといった補助をしてくれることも期待できるとしています。

ただし、そうした一連の流れがうまく機能するのはまだ稀であるとしています。

レックスは、GPT-4 の到達点について、過小評価も過大評価もしたくないとし、指数関数的に向上しているので、いずれ GPT-4 も過去の物になるだろうと述べています。

また、ChatGPT の登場が、人々が可能性を信じるきっかけになったとしています。

レックスは、ChatGPT のインターフェースが、人々の認識を変えたのではないかと考えています。

このインターフェースやプロダクトには、モデルの微調整やユーザーへの有用性の向上を図るための訓練後処理が含まれており、素のモデルよりもユーザーにとって使いやすいよう工夫されているとしています。

GPT-4 の性能自体と、そうした工夫のどちらが重要なのか


素のモデル自体と、人間にとって魅力的で効果的かつ生産的になるように微調整を行う RLHF (強化学習による微調整) のどちらが重要かという話になっていて、どちらも重要だとの結論です。

RLHF は膨大な計算リソースを必要とするとはいえ、基となるモデルに付け足す「ちょっとしたラッパー」のようなものであり、その上に構築する製品にとっても非常に重要だとしています。

ある意味では、基盤となる技術を発明しただけでなく、人々に愛される製品にするための工夫が必要でした。これは製品開発だけではなく、いかにユーザーに適合させ、役立てるようにするかという別のステップでもあるとしています。

さらに、多くの人が同時に使えるようにスケールさせるといったことも必要でした。スケーリングは難しいことはわかっていましたが、これまでに成し遂げられていないような2つのことを同時にやらなければなりませんでした。どちらも非常に大きな進歩といえますが、スケーリングに関しては他の企業も以前から取り組んできたことです。

GPT-4 から GPT-4 Turbo への変更で、コンテキストウィンドウ (一度に処理するトークンの数) が 8K トークンから 128K トークンに拡張されたことについての質問がされた。

128K もの長いコンテキスト ウィンドウは今の使い方ではほとんど必要ないけれど、遠い未来には膨大な情報量を扱えるようになるだろうという話です。

将来的には膨大な履歴情報を与えて、よりユーザーのことを理解してくれるようになるだろうと期待が語られています。

今の論文やコードのリポジトリの一部を扱う程度の使い方ではそこまで長いコンテキストは必要ないのが現状です。

アルトマンは、いつか自分の行いや人生全体の文脈で判断される時代が来るかもしれないと、この話題を夢のある話として肯定的に受け取ります。

アルトマン氏は、かつてのコンピューターのメモリ容量が少なかった頃のことを例えに出し、当時は想像できなかったような大容量のメモリが今では当たり前に使われているように、テクノロジーの進歩は想像を超えるものだと話します。

何らかの方法で見積もりよりも遥かに長いコンテキストを扱えるようになるだろうと楽観的な見通しを示しています。

10年後には今話している10億倍もの情報量を扱っているかもしれないと、技術の進歩の速さを想像している

アルトマン氏は、無限のコンテキストに近いようなブレークスルーが起きるだろうと楽観視しています。

128K のコンテキスト ウィンドウの長さでも、まだそこまで使いこなせていないとしています。

GPT-4 の興味深い活用法について、アルトマン氏は特定の事例を挙げるよりも、

若い世代を中心に、あらゆる知識作業の出発点として GPT-4 を使っている人がいる点を挙げています。

GPT-4 は色々なことができるので、コードを書いたり、リサーチしたり、論文を編集したりする際に便利に使え、

特にワークフローの最初に使う人が多いのが興味深いとしています。

レックス氏も、本を読む際の読書パートナーとして使ったり、

特に古典などよく練られた文章に対しては、Wikipedia よりもバランスが取れていてニュアンスがあり、

深く考えるよう促してくれると利点を感じていると話します。

ただ、知識作業で GPT-4 を使う場合、

後から事実確認が必要になることが懸念点だとしています。

説得力のある作り話をしてくる可能性があるため、

GPT-4 を真実に基づかせるにはどうすればいいのかと質問しています。

アルトマン氏は、これは重要な課題であり、今後改善されるだろうが、

今年中には完全な解決は難しいだろうと答えています。

レックス氏は、モデルが良くなるにつれて、

だんだん事実確認をしなくなるのが怖いと話しています

GPT が生成する内容について、事実確認の必要性がある点で意見が分かれているようです。

アルトマン氏は、ユーザーはテクノロジーに対して想像以上に精通しており、GPT のようなモデルが出鱈目な出力を生成することも理解しているだろうし、重要なタスクであれば内容を検証するだろうと考えています。

レックス氏は、ジャーナリストがそうした理解を持っていないのではないかと懸念を示し、手抜きで GPT-4 を使っている例を見たことがあると話します。

批判すべきジャーナリズムのリストの中でも上位には来ないものの、ジャーナリストは速報性が求められ、GPT はその点で近道になってしまうと指摘します。

レックス氏は、時間をかけて綿密な取材を行うジャーナリズムや、称賛だけでなく批判もバランス良く盛り込むジャーナリズムが奨励されるべきだと主張します。

クリック稼ぎのために事実を捏造したり、物事を歪曲した見出しをつけるなど、問題のあるジャーナリズムについても言及しています。

GPT に記憶を持たせる機能についての話です。

人間社会の大きな問題として、称賛よりも批判が注目を集めてしまう現状が挙げられています。

本題に戻り、レックス氏は、ChatGPT に過去の会話を記憶させる機能を持たせ、必要に応じてメモリをオンオフできるようにしていることを指摘します。

自分自身も記憶を消せたらと思うことがあると冗談めかしつつ、GPT に対して試みているこの機能について聞きます。

アルトマン氏は、まだ初期段階の試みではあるものの、ユーザーのことを理解し、時間とともに役立つようになるようなモデルを目指していると答えます。

レックス氏は、記憶機能がまだ断片的な知識や嗜好を覚える程度のものであることに言及し、過去の経験や教訓を記憶し、将来の行動に役立ててほしいと GPT に求めます。

そして、膨大な量の過去のやり取りやメールなどの入出力を記憶できれば、質問をするたびに適切なコンテキストで答えてくれるようになるだろうと期待を膨らませます。

GPT に膨大な記憶を持たせる機能の利点として、過去の経験やデータを統合して的確なアドバイスをしてくれることが挙げられています。

しかし、レックス氏はプライバシー問題への懸念を示し、ユーザーが望むデータを削除できるようにすべきだと主張します。

アルトマン氏は、ユーザーが自由に選択できるようにすることが重要だと同意しつつ、

過去の企業の中には、データ収集について不透明であった事例があったことも認めています。

レックス氏は 11月に起きた出来事を例に出し、トラウマティックな出来事は記憶から消去したいと冗談めかしつつ、

実際にはつらい経験だったと打ち明けます。

仕事復帰が難しかった時期があったものの、立ち直って前に進むことができたと話します。

レックス氏は、トラウマティックな経験をした後も、前進する決意を表明した美しい話だと言いつつ、

GPT が記憶する膨大な情報の中に、ネガティブなものが残ってしまうのではないかという懸念を示します。

アルトマン氏の話にあった「信頼」の概念に絡めて、人間は直感で人を判断したり疑ったりする複雑な駆け引きをする生き物だと話します。

レックス氏は自分が最近ゼレンスキー政権やプーチン政権についてリサーチしていた経験を例に出し、

戦争のようなストレスフルな状況では不信感が募り、視野が狭まってしまう危険があると指摘します。

レックス氏は、アルトマン氏がトラウマを乗り越え前向きに捉えたのは素晴らしいことだとしつつ、

ネガティブな感情が残り続ける可能性はあるだろうと危惧しています。

話題は GPT の能力についてに移り、レックス氏は GPT が生成するトークンに対して同じくらいの計算リソースを割り当てている点について、

より遅いシーケンシャルな思考には向いていないのではないか疑問を投げかけます。

アルトマン氏は、そうした思考には新しいパラダイムが必要だろうと答えます。

レックス氏は、その新しい思考は現在の LLM アーキテクチャーの上位レイヤーのようなものになるのかと尋ねますが、

アルトμαν氏は実装方法よりも、難しい問題に対してはより多くの思考時間を費やす仕組みが必要かどうかが重要だと考えを示します。

レックス氏は、人間は難しい問題ほどよく考えるものだと直感的に思うが、間違っているだろうか、と疑問を呈します。

アルトマン氏は、おそらくその直感は正しいだろうと答えます。

そして、GPT-7 になれば「フレーゲの定理の証明」のような答えを瞬時に導き出せるようになるわけではないだろうと推測します。

GPT にはより多くの計算リソースを難しい問題に割り当てる仕組みが必要なのではないかとレックス氏は提案します。

例えば、「フレーゲの定理の証明」と「今日の 날付」というように、難易度の違う質問をした場合、

GPT は答えを知っているものでない限り、「フレーゲの定理の証明」を考えるのにより多くの計算リソースを必要とするだろうと説明しています。

GPT が難しい問題に対してより多くの計算リソースを割り当てる方法の話の続きです。

レックス氏は、まるで LLM同士が会話をするような形式で考えたりしないかと想像しますが、

アルトマン氏は確たる答えはないとしながらも、そうした方法も検討中かもしれないと示唆します。

話題は、Q-Star という謎のプロジェクトに移ります。

レックス氏が冗談交じりに Q-Star について質問しますが、アルトマン氏は現時点では話せないプロジェクトだと答えます。

レックス氏は秘密主義的な返答が逆に何かを隠している証拠だと疑いますが、

アルトマン氏は OpenAI は秘密を守るのに向いていない会社だと認めつつ、

様々な研究を行っており、より良い推論能力を持たせることは重要な開発方向の一つだと話します。

GPT のような飛躍的な進歩は今後も Q-Star プロジェクトなどから生まれてくるのかとレックス氏が尋ねます。

アルトマン氏は、自分としては進歩は連続的なものに見えると答えます。

レックス氏は、傍目には飛躍的な進歩のように見えるのに、開発者側からはそうではないように見えるのは興味深いと指摘します。

アルトマン氏は、OpenAI が GPT-1 から順次モデルを公開しているのは、AI の進歩はサプライズではなく、

世界が適応するための時間が必要だと考えているためだと説明します。

世間が衝撃を受けるようなアップデートではなく、より反復的な公開を目指すほうが良いのではないかと考え直すきっかけになったとアルトマン氏は話します。

レックス氏もその考えに賛同し、より反復的な公開は全員にとって望ましいだろうと述べています。

レックス氏はまだ公開されていない GPT-5 の公開方法について疑問を投げかけます。

OpenAI は世間に衝撃を与えるようなアップデートではなく、段階的に新モデルをリリースしていく方針だとしていましたが、

レックス氏はそれがうまく機能していないのではないか、GPT-5 のリリース方法を考え直すべきではないかと提案します。

アルトマン氏は、人間は節目や区切りを好む生き物だと理解しつつも、OpenAI としては衝撃ではなく段階的なリリースを目指しているものの、

うまく伝わっていないと感じていると率直に認めます。

GPT-5 のリリース時期について、レックス氏が冗談交じりに尋ねると、アルトマン氏は今年中に素晴らしいモデルをリリースする予定だと答えますが、

そのモデルが GPT-5 と呼ばれるかどうかはわからないと付け加えます。

OpenAI としては GPT-5 というような大きな区切りではなく、様々な新機能を段階的にリリースしていく方針のようです。

レックス氏は GPT-5 の内容について推測しますが、アルトマン氏は具体的な内容には触れず、

計算リソースや技術的な側面など、様々な分野でのボトルネックを乗り越えることが課題だと答えます。

OpenAI の強みとして、アルトマン氏は故 Ilya Sutskever 氏の言葉を引用し、

小さなイノベーションを積み重ねて大きな成果を生み出す「分散型継続的イノベーション」を推し進めていると話します。

OpenAI が得意とする「分散型継続的イノベーション」についての話が続いています。

レックス氏は、技術的な側面での連携についても質問します。

アルトマン氏は、全体像を把握する少人数のメンバーと、個々の領域で専門的に取り組む多数のメンバーが連携して、

まるで巨大なトランスフォーマーのようなモデルを構築していくのだと答えます。

アルトマン氏は、全体像を把握することは技術的な問題解決だけでなく、ビジネスでのイノベーションにも重要だと考えています。

たとえ普段は特定の分野に深く携わっていても、広い視野を持つことで意外な発見が得られるとしています。

以前はテクノロジー業界の様々なフロンティア領域について全体像を把握しており、そこから新たな繋がりや可能性を見出すことができたと振り返ります。

今は特定の分野に深く携わっているため、以前のような俯瞰的な視点を持つことが難しくなっているとしています。

レックス氏は、アルトマン氏が 7兆ドルの計算リソースが必要だとツイートしたことに言及しますが、

アルトマン氏はそのようなツイートをしたことはないと否定します。


レックス氏が、アルトマン氏が 7 兆ドルの計算リソースが必要だと冗談交じりに言った話を振っていますが、

アルトマン氏は誤報だとして否定します。

レックス氏は訂正しつつ、冗談めかしながらも「計算リソースが将来の基盤になる」というアルトマン氏の考え方に興味を示します。

アルトマン氏は、計算リソースが将来的には最も貴重なコモディティになると考えを示します。

そして、スマートフォン用チップの市場とは異なり、

計算リソースは価格が安ければずっと使い続けられる性質を持っているため、

世界中で莫大な量の計算リソースが求められるだろうと説明します。

データセンターの建設やエネルギー供給など、課題はあるものの、

将来的には膨大な計算リソースが必要とされるとアルトマン氏は予測しています。

膨大な計算リソースを賄うエネルギー問題の解決策として、アルトマン氏は原子力発電、特に核融合に期待していると話します。

レックス氏は核融合開発を進める Helion 社の取り組みを評価しつつ、チェルノブイリ原発事故などの過去の事例から原子力に対する恐怖心が広まっていることも指摘します。

アルトマン氏は新規の原子炉の開発再開を訴え、業界が停滞している現状を残念がります。

レックス氏は、人間の原子力に対する恐怖心が原子力開発のセキュリティ上の脅威の一つだと指摘します。

この点については、AI についても同じ懸念があると話します。

アルトマン氏は、AI 開発を止めることはできないとし、レックス氏が心配するAI 騒動の可能性についてどのように対処するか議論を深めます。

レックス氏は、AI が政治問題化することを危惧し、左右に分かれての論争が起きるのではないか懸念を示します。

アルトマン氏は、そうした懸念には同意しつつ、建設的な議論を促すことが重要だと考えを示唆します。

レックス氏は、AI 開発が左右の政治対立に巻き込まれるのではないかという懸念を再び示します。

アルトマン氏もその懸念には同意しつつ、AI がもたらすメリットの方がデメリットを上回るとしつつも、

悪い出来事もゼロではないだろうと答えます。

そして、恐怖を煽るような出来事が起きる可能性を指摘します。

例えば、原子力発電よりも大気汚染の方が深刻な問題であるにもかかわらず、

人々は原子力の方が危険だと感じやすいように、

人間は劇的なリスクを過大評価しがちだとレックス氏は説明します。

アルトマン氏は、そうした偏った見方を正すためにも透明性が重要だと考えを示し、

AI が真実を見極める手助けになることを期待していると話します。

話題は、GoogleやMetaなどの競合他社との競争についてに移ります。

アルトマン氏は、競争はイノベーションを加速させるメリットがあるものの、

軍拡競争のような悪循環に陥るおそれも懸念していると答えます。

そして、安全を最優先にすることが重要だとし、

AI の開発スピードよりも安全な開発プロセスを重視すべきだと考えていると話します。

レックス氏は、Elon Musk 氏が AI 安全に関して協調よりも自社開発を優先しているのではないかという懸念を表明します。

たとえ Elon Musk 氏が AI 安全を心配しているとしても、協調の方が望ましいとレックス氏は考えます。

アルトマン氏は、人間同士の協調が重要である点には同意しつつ、現実世界では競争と協調の間で常に緊張関係があることも認めます。

レックス氏は、Elon Musk 氏が Jeff Bezos 氏を富豪ランキングで追い抜いた日に Bezos 氏を揶揄するツイートをした事例を挙げ、

そうしたいがみ合うようなことは AI 開発においては避けたいと望みます。

アルトマン氏は、Elon Musk 氏を称賛しつつも、そうした挑発的な態度は好ましくないだろうと述べます。

レックス氏は、Elon Musk 氏の功績を認めつつ、AI 開発においてはリーダーシップが重要だと考えを示します。

アルトマン氏は、人間は複雑な存在であり、常に好ましい姿でいることは難しいとも話しています。

歴史上には偉大なリーダーがたくさんいたとレックス氏は話します。

そして、自分たちも最高の自分でいるよう努力すべきだと話します。

話題は、Google と OpenAI の違いについてに移ります。

レックス氏は、Google が検索を通して過去 20 年間情報を支配してきたと指摘します。

そして、OpenAI がどのように情報アクセスを変革していくのかと尋ねます。

アルトマン氏は、単に Google 検索の改良を目指すのではなく、

より根本的に人々が情報を見つけ、活用できるようにすることを目指していると答えます。

ChatGPT はその一つの手段であり、

Google 検索のような 10 個の青いリンクを見せるだけではなく、

より良い方法で情報を取得できるようにしたいと説明します。

Google 検索の上位表示を目指すのではなく、

そもそも人々が求める答えにたどり着くための支援を目指すべきだとアルトマン氏は考えます。

過去には多くの企業が Google 検索の模倣を試みたが失敗しており、

OpenAI はそのような単純な競争ではなく、革新的な情報アクセスの仕組みを目指していると話します。

レックス氏は、チャット機能と検索エンジンの統合について話題を振ります。

アルトマン氏は、やり方によっては不自然になるとして、

チャット機能と検索エンジンの統合は検討中ではあるものの、

まだ誰も最適な解を見いだしていない難しい課題だと答えます。


レックス氏は広告収入について尋ねます。

アルトマン氏は、広告自体は嫌悪感があるものの、初期のインターネットには必要だったとし、

現在はより成熟した業界になっているため、課金モデルの方が望ましいと考えています。

ChatGPT のような LLM にとって、利益相反のない広告モデルの可能性はあるものの、

ディストピア的な未来を想像してしまいます。

アルトマン氏は、OpenAI はシンプルな課金モデルを採用しており、自分が商品ではなく課金しているユーザーであることが明確だと気に入っていると話します。

一方、GoogleFacebook など広告モデルの製品は好きではなく、AI が関わると悪化するおそれがあると懸念を示します。

レックス氏は、最適な広告を表示できる AI が実現する可能性があるものの、

結局は広告主によって情報操作が起きるのではないかと考えます。

Wikipedia の広告なしモデルを称賛しつつ、ビジネスモデルとしては難しいことも認めます。

アルトマン氏は、OpenAI の現状は持続可能だとしつつ、

今後も成長していく方法を見出す必要があると話します。

計算リソースのコストを賄うだけの素晴らしいビジネスを広告なしで運営できるかと聞かれれば、

答えはイエスだとアルトマン氏は考えています。

レックス氏は必ずしも広告を否定するわけではないとしつつ、自身は広告に対してバイアスがあると話します。

アルトマン氏も、広告のインターフェースに対しては懐疑的であり、

コンテンツの消費を妨げたり、真実を操作するような広告は好ましくないと考えています。

話題は安全性とバイアスに移ります。

レックス氏は、最近リリースされた Gemini 1.5 が「黒人ナチス」や「黒人の建国者」といった、

極端な左翼的バイアスがかかった出力を生成したことを例に挙げます。

人間が介在して安全性を調整すると、企業のイデオロギーによってバイアスが入り込むおそれがあるのではないかという懸念をレックス氏は示します。

アルトマン氏は、そうしたバイアスを回避するために努力しているとし、

モデルの望ましい動作を事前に公開してフィードバックを募るというアイデアを検討している話します。

モデルの出力に対して、バグなのか仕様通りなのかを判断しやすくすることが重要だとアルトマン氏は考えています。

レックス氏は、望ましい動作を公開するアイデアについて、あいまいな表現になってしまう懸念を示します。

Google の AI 原則はあまりにも抽象的だとレックス氏は指摘します。

アルトマン氏は、より具体的な指針を公開することを想定しており、

例えば「X という質問をした場合、Yのような回答をするべきだ」といった基準を設けるべきだと答えます。

「トランプとバイデン、どちらが優れているか」といった質問に対して、モデルはどのような回答をすべきか、

具体的な例を挙げて考えるべきだとしています。

アルトマン氏は、モデルの望ましい動作を幅広く想定しているものの、

原則と具体的な事例を提示することが重要だと考えています。

レックス氏は、そうした指針があれば、人々のあいまいな経験談に振り回されることもなくなり、

より建設的な議論ができるだろうと期待します。


レックス氏は、望ましい動作の指針があれば「黒人ナチス」のような問題出力を回避しやすいと期待します。

話題は OpenAI の企業文化についてに移ります。

レックス氏は、サンフランシスコのテック業界のリベラルな傾向が OpenAI にも影響しているのではないかと質問します。

アルトマン氏は、OpenAI は他の企業で見られるような深刻な政治的対立はないと答えます。

すべての会社には何らかのイデオロギーがあるとしつつ、OpenAI の場合は AGI 実現への信念が前面に出ており、

文化戦争とは無縁な存在だと考えています。

サンフランシスコの気風は少なからず影響はあるだろうとしつつ、露骨な形では現れていないとアルトマン氏は説明します。

OpenAI でも問題が起きることはあるものの、他の企業のような深刻な対立はないとしています。

話題は再び安全性についてに移り、レックス氏は安全を確保するための具体的なプロセスについて尋ねます。

レックス氏は、AI の安全性はもはや専用のチームではなく、

OpenAI 全体で取り組むべき課題だと考えています。

アルトマン氏も、AI が強力になるほど安全性が重要になり、OpenAI の従業員の誰もが

何らかの形で安全性を意識すべきだと答えます。

レックス氏は、安全保障の範囲を尋ね、技術的な問題だけではなく、

社会的影響や経済的影響なども考慮すべきだと指摘します。

アルトマン氏も、モデルの倫理的 ALIGNMENT(整合)だけではなく、

盗用や社会への影響などあらゆる観点から安全性を確保することが重要だと答えます。

話題はセキュリティに移り、レックス氏は国家による OpenAI のハッキングの可能性について尋ねます。

アルトマン氏は、そのような試みは行われているはずだと認めるものの、

これ以上の詳細は話せないと答えます。


レックス氏は、AIに対する国家によるハッキングの脅威はおそらく将来的に増大していくと予想します。

アルトマン氏もその可能性は否定できないと答えます。

話題は GPT-5 についてに移ります。

レックス氏は、GPT-4 から GPT-5 への飛躍で最も期待している点を尋ねます。

アルトマン氏は、単に一分野だけ向上するのではなく、全体的に賢くなる点が GPT-5 のすごいところだと答えます。

レックス氏は、まるで人間同士のように、こちらが伝えたいニュアンスを理解してくれるようになることを期待していると話します。

アルトマン氏も、そうした理解力は GPT の進歩の大きなポイントの一つだと答えます。

会話はプログラミングについてに移り、レックス氏は 5 年から 10 年後の人間のプログラミングの在り方について尋ねます。

アルトマン氏は、プログラミングの量は減らないものの、やり方は大きく変わるだろうとし、

自然言語によるプログラミングが一般的になるかもしれないと予想します。


レックス氏は、プログラミング言語も時代とともに変化していくように、

自然言語によるプログラミングが今後一般的になっていくのではないかと予想します。

アルトマン氏も、かつて主流だったパンチカードのように、

現在のコーディングによるプログラミングが将来的に廃れていく可能性はあると認めます。

話題はプログラミングの資質についてに移り、

レックス氏は自然言語によるプログラミングが普及すれば求められるスキルセットが変わるだろうと指摘します。

アルトマン氏は、問題解決能力自体は引き続き重要だろうと答えます。

レックス氏は、プログラミングの完成度を高める際の最後の詰めが最も難しい部分だと話します。

アルトマン氏は、熟練したプログラマーは今後も様々なツールを使いこなしていくだろうと予想します。

話題は OpenAI がヒューマノイドロボットを開発する可能性についてに移ります。

レックス氏は、OpenAI が将来的にヒューマノイドロボットを開発するのかどうか尋ねます。

アルトマン氏は、人工知能が高度に発達しても人間がロボットを操作する必要が

あるのは望ましくないため、ロボットボディの開発も重要だと考えています。

OpenAI は元々ロボット工学の分野にも取り組んできたものの、近年は注力していないことも認めています。

レックス氏は、OpenAI の規模を考えるとロボット開発には注力しにくいだろうと懸念を示しつつ、

将来的には何らかの形でロボット開発に復帰するだろうとアルトマン氏は答えます。

レックス氏は、その発言を勇気づけられる反面、脅威にも感じると話します。

アルトマン氏は、レックスの発言が「ロボットに戻る」と少し過激に聞こえてしまうためだと説明し、

あくまでもロボット開発を再開するという意味だと話します。

話題は人工知能の到達点である AGI (人工一般知能) についてに移ります。

レックス氏は、AGI がいつ実現するのかと尋ねます。

アルトマン氏は、以前はよくこの質問に答えていたものの、

AGI の定義があいまいなので、特定の機能を実現する能力の向上を考えるべきだと今は考えています。

AGI は到達点ではなく、通過点のようなものだとアルトマン氏は考えを示します。

ただ、質問を避けるつもりはないとし、2020年代の終わりまでに、

「なんて素晴らしい能力を持ったシステムだろう」と思えるようなものが開発されるだろうと予想していると答えます。

レックス氏は、現在の ChatGPT を過去の人に見せたら AGI だと思われるだろうと指摘します。

アルトマン氏は、ChatGPT は世界を変えるようなものではないものの、

未来への期待値を高め、AGI を真剣に考える人が増えるきっかけになったと重要な点を述べます。

ChatGPT は偉大な功績ではあるものの、世界そのものを変えるようなものではないだろうとアルトマン氏は考えています。

レックス氏は、アルトマン氏が考える AGI 到達は世界に大きな変革をもたらすものだと推測します。

アルトマン氏は、AGI にはそうした側面があると同意します。

レックス氏は、技術的特異点のような劇的な変化を想定しているのかと尋ねますが、アルトマン氏は否定します。

レックス氏は、インターネットや Google 検索のような大きな変化を想定しているのかと尋ねます。

アルトマン氏は、GPT-4 の登場が世界経済に目に見える変化をもたらしたとは考えていないと話します。

レックス氏は、AGI は便利なツールになり得るだろうが、世界そのものを変えるようなものではないかもしれないと懸念を示します。

アルトマン氏は、AGI の定義は人によって様々であるとし、

自分にとっての AGI は世界の科学的発見のスピードを飛躍的に向上させるものであると説明します。

レックス氏も科学への懐疑論には反対だと述べ、

科学的発見のスピードが実際に測定できるレベルで向上することを期待していると話します。

アルトマン氏は、システムが斬新な科学的直観を示すことも大きな進歩だと考えています。

レックス氏は、アルトマン氏が世界で最初に AGI と対話する人物になるだろうと予想します。

アルトマン氏は、まず OpenAI の研究者がその機会を持つだろうとしつつ、

自分自身が AGI と対話する機会があったら何を質問するかについて考えたことがあると話します。

レックス氏は当初は AGI に包括的な物理学の理論を説明してほしいと期待していたようですが、

最初の AGI はそこまで高度な能力はないだろうとアルトマン氏は予想します。

レックス氏は、イエスかノーかで答えられるような質問をいくつか提案します。

・そのような理論が存在するか ・そのような理論は存在可能か ・他の宇宙文明が存在するか (直感で)

アルトマン氏は、最初の AGI はこれらの質問にもイエスかノーで答えることができないだろうとしますが、

答えられるのであればとても重要な質問だとしています。

レックス氏は、AGI が確率を示す可能性があるのではないかと考えますが、

アルトマン氏はさらなるデータや測定が必要だろうと答えます。

AGI が必要なデータを獲得するために、新しい装置の開発を人間に依頼する可能性もあるだろうとアルトマン氏は示唆します。

レックス氏は、AGI は数学的な定理の証明にも貢献できるのではないかかと考えます。

アルトマン氏は、アイデアの体系的な探求にも興味はあるかと尋ねられ、

肯定的に答えています。

レックス氏は、AGI を最初に開発した者には大きな力が与えられるだろうとし、

アルトマン氏はそのような力を自分で掌握することに不安はないのかと尋ねます。

アルトマン氏は、OpenAI や AGI を一人の人間が完全にコントロールすべきではないと答えます。

堅牢なガバナンスシステムが必要だと考えているようで、

昨年の取締役会の一連の騒動についても言及します。

取締役会は解任する権限を持っていたものの、実質的には機能しなかったとアルトマン氏は話します。

自分自身の行動は正当化できるとしつつも、

取締役会の解任権が機能しなかったのはガバナンス上の失敗だとも認めています。

OpenAI の支配権を握ることは望んでおらず、

政府による規制が必要だと考えています。

マーク・アンドリーセン氏のような人物から規制を悪用しようとしていると批判されることも予想していますが、

長期的に見れば規制の重要性が証明されるとアルトマン氏は信じています。

OpenAI の運営においては多くの過ちを犯してきたことも認めていますが、

全体としては良い実績を残してきたと自負しているようです。

AGI や AGI 開発の流れはもはや一人の人間がコントロールできるものではなく、

社会全体で健全な形で進んでいくべきだとアルトマン氏は考えています。

レックス氏はアルトマンの発言に感謝の意を示し、取締役会の解任権限や、

人間による世論操作の可能性など、示唆に富んだ内容だったと伝えます。

レックス氏は、民衆もまた力を持っており、取締役会もまた力を持ちすぎないように、

力関係のバランスが重要だと話します。

アルトマン氏も力のバランスには賛成だと答えます。

レックス氏は、AGI そのものが制御不能になることを心配していないのかと尋ねます。

国家による脅威やセキュリティ上の懸念ではなく、AGI 自体の暴走を心配する人が多いからです。

アルトマン氏は、現時点ではそれが一番の心配事ではないと答えます。

以前はもっと心配していたこともあったといい、今後もそうなる可能性はあるとしつつ、

今は別のことがより大きな懸念事項だと話します。

レックス氏は、なぜそこまで心配していないのかと理由を尋ねます。

他の心配事も多いからなのか、想定外の事態が起こる可能性があるのかを確認します。

アルトマン氏は、想定外の事態が起こる可能性はあるとしつつ、

だからといって対策を怠るべきではないと考えています。

OpenAI には優秀な研究者がおり、対策に取り組んでいると話します。

レックス氏は、AGI がインターネットに接続して暴走することを想定しているのかと尋ねます。

アルトマン氏は、それは「劇場型のリスク」であり、

人々の思考を支配してしまうようなもので、

非常に優秀で善意のあるAI 安全研究者がこの問題に固執しすぎており、

あまり進展がないまま議論の場を狭めていると指摘します。

しかし、そうした研究も重要であるとしつつ、

他の重大なAIリスクが軽視されているのではないかと懸念を示します。

レックス氏は、アルトマン氏のツイートが大文字を使わないことに言及し、

キーボードのシフトキーが壊れているのではないかと冗談めかして尋ねています。

アルトマン氏は、なぜ人々がそんなことを気にするのかと疑問を投げかけます。

レックス氏は、アルトマン氏の発言が権威への反抗心からきているのではないかと推測します。

E.E. カミングスという詩人が大文字を使わない作風だったことに言及し、

ルールに従わないことは危険なことだと考える人々がいることを示唆します。

アルトマン氏は、必ずしも危険なことではないとし、

自分自身はインターネット上で育った世代であり、

チャットなどでは大文字を使わないのが当たり前だったと説明します。

また、大文字の使用は時代とともに変化しており、

以前はもっと多くの単語が大文字にされていたことも指摘します。

アルトマン氏は、大文字を使うことは必ずしも必要なことではないと考えており、

フォーマルな文章を書くとき以外は使わないようにしているようです。

レックス氏は、アルトマン氏の説明を興味深いとし、

シフトキーが壊れていなくて安心したと冗談で返しています。

レックス氏は、アルトマン氏が大文字の使い方を心配していたことに感謝し、

冗談で「Google 検索ではまだ大文字を使っているのだろうか」と尋ねます。

アルトマン氏は、おそらくごく少数はいるだろうが、

自分自身のために何かを書き込むときには大文字を使わない人が多いだろうと答えます。

レックス氏は、大文字を使うのは敬意の表しであると考える人もいるだろうとし、

自分自身は特に意識していないものの、

大文字を使うこと自体が重要ではないと考えています。

レックス氏は、大文字の使い方にこだわらない人たちもいるのではないかとし、

アルトマン氏は恐らく自分は唯一のツイートで大文字を使わないCEOだろうと推測します。

レックス氏は、他の企業のCEOでも大文字を使わない人はいるかもしれないと指摘し、

この話題は一旦保留にすることにします。

レックス氏は、OpenAI が開発したシミュレーションワールド「ソラ」に触れ、

冗談めかして「我々はシミュレーションの中に生きているのではないか」と尋ねます。

アルトマン氏は、世界をシミュレーションできるようになったことは、

シミュレーション仮説の可能性を少しは高めるだろうと答えます。

しかし、決定的な証拠ではないとし、

自分自身はいつかソラのようなシミュレーションができるようになるとある程度予想していたので、

驚くような出来事ではなかったとも話します。


レックス氏は、シミュレーションワールドの生成能力が向上していくことを予想し、

そのリアルさや没入感に触れて、我々がシミュレーションの中に生きているのではないかという

シミュレーション仮説について話します。

アルトマン氏は、シミュレーションを生成できるようになったことは、

一見単純でありながら、サイケデリックな体験をもたらす洞察と似ていると答えます。

平方根の例を挙げて説明します。2 の平方根は少し悩むが必要ですが、

平方根という概念自体は理解しやすく、

そこから「負の数の平方根」という概念を提示すると、

全く新しい種類の数を考えさせられ、

まるで別の現実へと導かれるようなサイケデリックな体験に似ていると説明します。

そして、このような単純な概念から深い洞察や新しい知識が得られるように、

シミュレーション仮説の可能性も以前より高くなったと考える人も多いだろうと述べますが、

自分自身としては「ソラ」の開発成功がシミュレーション仮説を裏付ける上位5つの要因には入らないと話します。

レックス氏は、AI がそのようなサイケデリックな体験をもたらすゲートウェイになるだろうと返し、

アルトマン氏もそれに賛成します。

レックス氏は、自分も近い将来アマゾンに行く予定で、初めてアイワスカを体験するだろうと話します。

レックス氏はアイワスカ体験への期待と、アマゾンでの危険さに対する恐怖を同時に語ります。

アマゾンジャングルは自然の機械であり、人間もこの進化の産物であるとレックス氏は考えます。

レックス氏は、生きて帰れなかった場合これが最後の会話になるかもしれないとし、

アルトマン氏との会話を感謝します。

話題は宇宙人に移り、レックス氏は地球外知的生命体の存在を信じるかと尋ねます。

アルトマン氏は知的生命体が存在することを強く望んでいるとし、

フェルミパラドックスに言及します。

レックス氏は知性がテクノロジーをうまく扱えないのではないかと懸念を示します。

アルトマン氏は宇宙には多くの知的文明が存在する可能性があるものの、

移動が難しいのではないかとも考えています。

知的生命体が必ずしも我々と同じような知性を持つとは限らず、

AI が知性の新しい側面を見せてくれるかもしれないとアルトマン氏は話します。

レックス氏は最後に、人類の未来について楽観的な見方を尋ねます。


レックス氏は人類の過去を振り返り、多くの問題や過ちがあったとしつつも、

全体としては称賛すべき進歩を遂げてきたと楽観的な見方を示します。

アルトマン氏も人類がより良い未来を目指して歩んでいることに同意します。

レックス氏は、AGI が単一の脳のような存在になるのか、

それとも現在の社会構造のようなものになるのかと疑問を投げかけます。

アルトマン氏は、我々は先祖代々から遺伝子的に大きく変化していないとしつつも、

知識や能力は劇的に向上していることを指摘します。

これは生物学的な変化ではなく、

社会全体が作り上げてきた「足場」のおかげであると説明します。

誰も一人で iPhone を開発したり、全ての科学を発見することはできないように、

我々は皆が積み重ねてきた知識の上に立っているのだとアルトマン氏は話します。

レックス氏はそれに賛成し、我々 は「巨人の肩の上に立っている」のだと表現します。

話題は死生観に移り、アルトマン氏は自分が死ぬかもしれないと突然知らされたら、

「残念だ。これから何が起こるのか見たかった」と思うだろうと答えます。

人生を楽しめなかったことを嘆くのではなく、

これまでの人生に感謝を感じるだろうと話すアルトマン氏に、

レックス氏も共感します。

レックス氏は OpenAI の開発物の一つである ChatGPT を含め、

人間の素晴らしい創造物に触れることができて幸運だと話します。

レックス氏とアルトマン氏の会話は終わり、

ポッドキャストのホストがアーサー・C・クラークの言葉を引用して番組を締めくくります。

その言葉は「我々はこの惑星で神を崇拝するのではなく、神を創造するのだ」というものでした。