AI,technology関連

AI、technology関連の事を載せています

人工知能技術を巡るOpenAIのCEOサム・アルトマン氏との対談

 

 

youtu.be

 

今回はこちらの動画の文字おこしをGEMINIを使って翻訳しました

ざっくりとした翻訳になっておりますので、暇つぶしがてら読んでいただけてらと思いますが、GPT5の事や、年末にあったサムアルトマン解任事件の事など色々なトピックに関する情報が詰まっておりますので、お楽しみください!

動画のほうでも、日本語字幕が付いてりますので、日本語しかわからない私にとってはとても助かりました!

では、翻訳文章をどうぞ!

 

 

レックス・フリードマンポッドキャストへようこそ。今回のゲストは OpenAI の CEO であるサム・アルトマン氏です。OpenAI は GPT-4、ChatGPT、Sora などの人工知能技術を開発しており、将来的には人工一般知能 (AGI) を開発する会社になるかもしれません。

今回の会話では、アルトマン氏が率いる OpenAI を巡る騒動について取り上げます。これはおそらく、アルトマン氏にとって仕事人生で最もつらい経験だったようです。本人はこの騒動を「痛みを伴う」「混乱した」「恥ずかしい」「腹立たしい」などの言葉で表現しています。

しかし、その中にはポジティブな要素もあったと語っています。ただ、あまりに急展開だったため、そのポジティブな面に気づく余裕がなかったことも残念がっていました。

騒動中、アルトマン氏はある興味深いツイートを見つけました。それはまるで自分の弔辞を読んでいるような感覚で、多くの人から好意的な言葉をかけられたといいます。特に、愛する人や気にかけている人からのサポートは嬉しかったそうです。

騒動中、アルトマン氏は「嫌悪」よりも「好意」を感じる瞬間が多かったと振り返ります。状況が全く掴めず、これからどうなるかも分からない中、不安ではありましたが、多くの好意を感じたといいます。

また、騒動が起きたことはある意味で幸運だったとも話しています。OpenAI が AGI を開発するまでの間に、何か予期せぬ事態が起こると予想していたからです。今回の騒動は、そうした事態への耐性を高めるのに役立ったと考えています。

最後に、アルトマン氏は「AGI をめぐる道のりは、巨大な権力闘争になるだろう」と予測しています。


アルトマン氏の発言によると、取締役会構造、組織形態、協力者選び、コミュニケーション方法をいかに改善していくかが重要だといいます。これにより、権力闘争を最小限に抑え、穏やかにすることができるでしょう。

しかし、当のアルトマン氏にとっては不快で困難な出来事だったと振り返ります。現在は仕事に戻り、忙しくしているため、あまり過去を振り返る時間はないようです。

騒動後、アルトマン氏は約1ヶ月間、ぼんやりと過ごしていたといいます。精神的に参っていたため、ただ日々をやり過ごすだけで精一杯だったそうです。レックスが「個人的な精神的なレベルで」と尋ねると、アルトマン氏は「そうだ、本当につらかった」と答えています。OpenAI を運営しなければならなかったのは本当に大変だったようで、「洞窟にこもって回復したい」とも漏らしています。

しかし、現在は再び OpenAI のミッションに打ち込んでいるといいます。レックスは、取締役会構造や権力構造、企業運営方法、研究と製品開発、資金調達など、さまざまな要素を振り返ることは、将来的に AGI 開発を進める際に役立つだろうと助言します。より組織的に、そして穏やかな形で開発を進めることができるようになるからです。リーダーとしての個人的な心理的側面だけでなく、取締役会構造などの複雑な問題にも向き合う必要があるのです。

アルトマン氏はこの騒動から、組織構造やインセンティブ設定、求めるべき取締役会像などについて多くのことを学んだと話します。また、ある意味で今回の出来事は幸運だったとも考えています。OpenAI にとっては今後、おそらく最後の高ストレス体験ではないでしょうが、今回は会社が潰れる寸前まで追い込まれました。

OpenAI は AGI 開発のために必要な要素を多く考慮していますが、組織のレジリエンスを高め、今後予想される圧力に耐えられるような構造を築くことも非常に重要だと考えています。

取締役会の審議プロセスがどれほど深堀され、厳格だったのか、またこのような状況における人間関係については、圧力下での業務遂行が求められる取締役会とチームを作る必要があるだろうとアルトマン氏は話します。

取締役会に過剰な権限があったのではないかという質問に対して、アルトマン氏は取締役会は本来力を持ちうる存在であると答えます。しかし、企業の構造上、取締役会は通常株主に対して責任を負います。ただ、今回の OpenAI のような非営利団体の場合は、特別なルールを設けない限り、取締役会は自分たち以外には対する責任がなく、多くの権限を持つことになります。

この構造には良い面もありますが、OpenAI としては取締役会が可能な限り世界に対して責任を負うことを望んでいます。

話題は新しい取締役会に移ります。新しい取締役会では何が改善されたのでしょうか?

以前の取締役会は1年かけて縮小され、最終的には9人から6人になりました。しかし、その後新たなメンバーを追加することについて合意できませんでした。また、経験豊富な取締役が少なかったことも問題でした。新設された取締役会では、経験豊富なメンバーが増員されており、改善が期待されます。

取締役会のメンバー選出については、ラリー・サマーズ氏の選出に対して批判があったことが話題に上ります。選出プロセスはどのようなものだったのでしょうか?

ブレット氏とラリー氏の選出は、緊迫した週末に行われました。取締役会と執行チームの双方が妥当と考える人物で、新しいメンバーを選出することが求められました。

ラリー氏に関しては、実は以前の取締役会からの推薦でした。ブレット氏については、週末以前にも提案がありましたが、多忙で断っていました。

最終的に、アルトマン氏自身が復帰する条件として、新しい取締役会メンバーが必要だと判断されました。以前の取締役会メンバー全員とは継続して仕事ができないと考えられたのです。

アダム・リース氏は残留を決めてくれましたが、取締役会は3人構成にすることが望ましいとされ、短期間で2人の新メンバーを見つけなければなりませんでした。このメンバー選出は、時間的な制約があったため、厳密なプロセスではなく、戦場での判断のようなものだったとアルトマン氏は振り返ります。

今後追加される新しい取締役会メンバーについては、より計画的なプロセスで行われるようです。

新しい取締役会の選出にあたっては、取締役会が持つべき専門性について基準が設けられています。1人の幹部を採用するのと違い、取締役会は包括的なガバナンスと思慮深さを求められます。

その点で、アルトマン氏はブレット氏の提案を気に入っており、取締役会メンバーは個々別ではなく、候補者リストとしてまとめて採用したいと考えています。非営利団体運営の専門知識、企業運営の専門知識、法務・ガバナンスの専門知識など、バランスのとれた取締役会を目指しています。

では、技術的な知識は取締役会メンバーにとって重要なのでしょうか? アルトマン氏は全てのメンバーが持つ必要はないが、何人かは持つべきだと答えています。

一般の人々は OpenAI の経営実態をあまり理解していないだろうとアルトマン氏は推測します。ドラマのような騒動ばかりが注目されますが、もし OpenAI が AGI を開発したり、インパクト絶大な製品を生み出した場合、取締役会との話し合いはどのようなものになるのでしょうか? そういった状況で適切な議論ができるメンバーは誰なのかと疑問に思うでしょう。

アルトマン氏は、技術の専門家はもちろん必要ですが、同時に「この技術を世の中の人の役に立てるようにするにはどうすればいいのか」という視点を持ったメンバーも必要だと話します。自分自身やレックス・フリードマンのような人間が陥りやすい間違いは、技術的理解だけが重要だと考えてしまうことです。取締役会での議論には確かに技術的な側面も必要ですが、それ以上に、技術が社会や人々の生活に与える影響についても議論すべきなのです。

取締役会メンバーを選ぶ際には、実績を重視するのでしょうか? 

レックスはアルトマン氏に、あの週末で精神的に落ち込んだことは何かと尋ねます。アマゾンのジャングルに行ってアヤワスカを服用し、姿を消すことも考えたかと冗談めかして聞きます。

アルトマン氏は、あの期間は非常に辛かったが、好意的な出来事もあったと答えます。仕事仲間や久しぶりに話した人から、絶え間なく励ましのメッセージが届いたのです。ただ、あまり感謝の気持ちを表せなかったと振り返ります。火事場の真っ只中にいたからです。

しかし、全体的には非常につらい週末だったと話し、驚くほど公の場で戦わなければならなかったことも精神的に消耗したと語ります。戦いは一般的に消耗するものですが、今回は特にそうでした。

取締役会は金曜日の午後に動き出し、アルトマン氏はほとんど答えを得られませんでしたが、「取締役会にはその権利がある」と考えたそうです。そして、この出来事の良い面を探そうとし、OpenAIでの今の仕事は「まともなサイズの会社を運営するようなものだ」と感じていました。

アルトマン氏がずっとやりたかったのは、研究者たちと直接働くことでした。そして、「純粋にAI研究に集中できる。ワクワクする」と思ったそうです。この時点で、事態が好転する可能性があるとは思っていませんでした。

金曜日の午後、初めてOpenAIの執行チームから連絡があり、戦うつもりだと知らされます。その夜は興奮したまま眠りについたと振り返ります。

レックスは、眠れたのかと尋ねます。アルトマン氏は、4日半ほどほとんど眠らず、食事もあまり取らない奇妙な期間があったと話します。それでも、驚くほどのエネルギーがあったそうです。アドレナリンの影響を実感したと語ります。

レックスは、「OpenAIという赤ん坊の死を受け入れたのか」と要約します。アルトマン氏は「受け入れた」と答え、新しいことにワクワクしていると締めくくる

土曜日の午前中、取締役会メンバー2人がアルトマン氏に電話をかけてきます。「混乱させてしまって申し訳ない。状況を立て直す術はないだろうか?君に戻ってきてほしい」と持ちかけられます。

アルトマン氏は当初断りますが、スタッフやパートナー、株主のことを考え直し、復職の条件を提示します。

そして、週末を通して最もつらい時間だったのが、OpenAI を立て直そうとする自分たちと、それを潰そうとする外部勢力とのせめぎ合いだったと言います。スタッフは世界中からの引き抜き工作などにも対応しなければならず、いつ終わるかわからないままの状態が続きました。

日曜日の夕方、また数時間後に復職の話がまとまるかと思われた矢先、取締役会は新たな暫定CEOを選任します。これがアルトマン氏にとってのどん底だったと語ります。

しかし、怒りや嫌悪感よりも、多くの人からの好意を感じたとも話します。愛が週末の支配的な感情だったと振り返ります。

話題はミラ・ムラティ氏に移ります。アルトマン氏は、ツイートで「静かな時にこそ、少し方向転換してみるべきかもしれない」とミラ氏を称賛しています。アルトマン氏がミラ氏を尊敬するのはなぜでしょうか?

アルトマン氏によれば、ミラ氏は混乱した週末に素晴らしい仕事をしたものの、リーダーというのは危機的な状況での振る舞いだけでなく、普段の何気ない火曜日の午前9時46分のような場面、毎日の退屈な仕事の中で会議にどのように出席するか、どのような判断を下すのかといったことが重要だと言います。静かな時間というのはそういう日常的な場面のことを指しているのです。

つまり、目立った出来事だけではなく、日々の積み重ねが大切だということです。

アルトマン氏は、ここ20分間はドラマチックな週末の話をしてきたが、OpenAIの本質は別のところにあると強調します。OpenAIは過去7年間の積み重ねが大切なのだと。

レックスはイリヤ・サットスカバー氏について話題を振ります。イリヤ氏は秘密の核施設に人質として監禁されているのではないかと冗談めかして尋ねます。

アルトマン氏は否定しますが、レックスは「これはいつかミームになるだろう」と冗談を続けます。レックスはアルトマン氏とイリヤ氏の関係について尋ねます。

アルトマン氏はイリヤ氏を尊敬しており、共に仕事ができればと思っていると話します。また、イリヤ氏が AGI(人工一般知能)を目撃したという噂についても否定します。

イリヤ氏は慎重な人物で、AGI を安全に開発するための議論をアルトマン氏と重ねてきたと語ります。レックスはイリヤ氏が寡黙なのは魂の探求をしているからではないかと推測しますが、アルトマン氏は本人に尋ねるべきだと答えます。

イリヤ氏は物静かな人柄ですが、ユーモラスな一面もあるとレックスが話すと、アルトマン氏は興味深そうに答えます。

レックスはイリヤ氏が子犬と遊んでいるのを見たことがないと話します。アルトマン氏もイリヤ氏のユーモラスな一面を見たことがないと話しますが、最近夕食会で目撃したと語ります。

話題は OpenAI の取締役会と今後の展望に移ります。アルトマン氏は新しい取締役会には満足感を持っていると答え、今後 OpenAI の構造強化も検討していくと話します。

今回の騒動を通して、取締役会の構造について学ぶことができたと振り返ります。

一連の騒動を「クレイジーで非常に痛ましい経験」だったと表現し、プレッシャーが高まるにつれて強固なガバナンス構造やプロセス、人材が必要になるだろうと予測します。今回のような出来事は好機だったとも話しますが、同時に非常に辛い経験だったとも話します。

レックスは、今回の出来事で人を信じるのが難しくなったのではないかと尋ねます。アルトマン氏は肯定的に答えます。

レックスは自分は人を信じやすい性格だと話します。用心深くなるよりもオープンに生きるべきだという考えを持っていたと話すレックスに対し、アルトマン氏はショックを受け、考えが変わってしまったと答えます。

レックスは、あまりに猜疑心を持つようになるのは良くないと助言します。アルトマン氏は自分はもともとあまり猜疑心を持たない性格だと言いますが、人を無条件に信用しなくなるのは心配だと話します。

レックスは、AGI 開発者にとって信用と不信のどちらが望ましい資質なのか疑問を投げかけます。

そして話題は、優れた人材を採用し賢明な意思決定ができる組織作りへと移ります。資金力が増えるにつれて、奇妙な人が集まってくるようになるだろうとレックスは話します。

取締役会メンバーや信頼性に関するレックスのコメントに対して、アルトマン氏はスタッフについては非常に感謝しており、信頼していると言い返します。

話題はイーロン・マスクによる OpenAI の訴訟に移ります。レックスはイーロン・マスクの主張の核心は何であるかと尋ねます。

アルトマン氏は「よく分からない」と答えます。OpenAI は当初、研究ラボとして立ち上げられ、この技術がどう発展していくのか見当もつかなかったと振り返ります。

当時はまだ言語モデルが注目を集めておらず、API やチャットボットのアクセス販売のことも考えていませんでした。製品化の構想すらなかったのです。手探りで研究を進め、当初の想定はほとんどが外れたと振り返ります。

状況が変わり、巨額の資金が必要になったため、OpenAI の構造を変更しなければならなくなったと説明します。試行錯誤を繰り返し、今のようなやや不可解な構造になったのだと説明します。

しかし、過去一つ一つの意思決定は妥当だったと考えています。最初から全てわかっていれば違う形にしていたかもしれないものの、そうした情報はないまま進んできたのだと話します。

イーロン・マスクの本当の動機は分からないとアルトマン氏は答えます。

OpenAI がブログ記事で出した返答について、レックスが内容をまとめるよう求めますが、アルトマン氏はイーロン・マスクの主張と OpenAI の見解の違いを感情的にならずに歴史的に説明したものだと話します。

レックスはイーロン・マスクによる「当初の不確実さの度合い」の主張について、事実誤認があると指摘します。

当時は少人数の研究者がAGIについて熱く語っており、誰もが笑っていたとレックスは振り返ります。

レックスは、イーロン・マスク自身もロケット打ち上げを主張していて当時は笑われていたことを指摘し、イーロン・マスクは共感してくれるはずだと話します。

レックスは、イーロン・マスクとの間に個人的な確執があったのではないかと推測します。

アルトマン氏は、イーロン・マスクは OpenAI が失敗すると考えており、立て直すために完全な支配権を求めていたと説明します。

OpenAI は現在の路線を続けることを望んでおり、イーロン・マスクはテスラでも AGI 開発ができるようにしたかったそうです。

また、イーロン・マスクは OpenAI を自身が支配できる営利企業にするか、テスラと合併させたいと考えていたこともあったそうです。

OpenAI はそれに応じず、イーロン・マスクは去ったとアルトマン氏は話します。

ブログ記事で言及されていたのは、イーロン・マスクが OpenAI をテスラに買収させたり、マイクロソフトとのパートナーシップよりも強力な支配を望んでいたという点でした。

アルトマン氏の話によると、イーロン・マスクの提案はテスラによる完全な買収だったそうです。

レックスは、OpenAI における「Open」という言葉がイーロン・マスクにとって当時何を意味していたのか、そしてアルトマン氏にとってはどうだったのか尋ねます。

アルトマン氏は、今なら違う名前を選ぶだろうと振り返ります。OpenAI が最も重要だと考えているのは、強力な技術を無料で公開し、公共財にすることです。

無料版には広告がなく、他の方法での収益化も行っていません。ただミッションの一部だと考えているからです。

OpenAI はますます強力なツールを無料で人々に渡し、使ってもらうことを目指しています。

人々に優れたツールを与え、使い方を教えなくても、自分たちで使い方を見つけ出し、素晴らしい未来を築いていくことができれば、それは大きな意味を持つとアルトマン氏は話します。

無料、または低コストで強力な AI ツールを世に出し続けることができれば、ミッション達成に大きく貢献できるでしょう。

オープンソースか否かについては、一部は公開すべきだが、全てではないとしています。

ニュアンスが重要だとアルトマン氏は考えますが、論争は宗教論争のようになりがちだそうです。

レックスは、イーロン・マスクが「名前を ClosedAI に変えれば訴訟を取り下げる」と言ったのかどうか尋ねます。

アルトマン氏は、冗談にもならない話だと呆れています。

レックスは、訴訟自体が法的根拠のあるものではなく、AGI の未来と現在それを主導している企業についての主張を世に知らしめるためのものだと考えています。


レックスは、Grok が少し偽善的だと指摘された後にオープンソース化を発表したことを話題に出し、イーロン・マスクにとってオープンソースかどうかが争点ではないだろうと推測します。

話題は訴訟に移ります。レックスは、建設的な競争は好ましいが、訴訟は好きではないと話します。

また、今回の件は偉大な建設者であるイーロン・マスクらしくないと残念がります。多くの人が失望しており、昔のイーロン・マスクが恋しいと感じる人も多いとレックスは話します。

レックスは、イーロン・マスクが作った「Grok」が「GPT」を打ち負かし、互いに切磋琢磨していくのが理想的な展開だと言います。

そして話題はオープンソースに移ります。レックスは、Meta が驚くべき先駆者であり、最先端モデルではないものの Llama をオープンソース化したことを指摘します。

Google も小規模なモデルのオープンソース化を検討していると話します。

レックスは、オープンソースの是非について尋ね、アルトマン氏は小規模なモデルのオープンソースには需要があると答えます。エコシステムは他の分野と同様に、オープンソースとクローズドソースが共存していくだろうと言います

レックスは訴訟に関するポッドキャストで聞いた話を持ち出し、非営利団体から営利団体への移行の是非について尋ねます。

アルトマン氏は、非営利団体として設立して後に営利部門を追加することを考えているスタートアップを強く止めると答えます。

また、今回のような事例は先例にならないだろうとも話します。

レックスは、今後数年間でイーロン・マスクとの関係がどうなるか、友情になるのか、友好的な競争になるのか尋ねます。

アルトマン氏は、イーロン・マスクを尊敬しており、将来的には友好的な関係を築ければいいと考えています。

レックスは、才能獲得競争はあるだろうが、友好的なものであってほしいと話します。

そして話題は OpenAI の新モデル「Sora」に移ります。レックスは、製品としても哲学的にも素晴らしいと感想を述べ、GPT-4 との違いについて尋ねます。

アルトマン氏は、どのモデルも私たちが思っている以上に世界のモデルを理解していると答えます。

理解できていないことも明白であり、弱点に注目しがちですが、全てが偽物ではなく、部分的には機能しているのだと説明します。

Sora のデモ動画で、人が物体の前に数秒間立って塞ぎ、その後去っても物体がきちんと表示されていることに言及し、感心していると話します。

また、長いシーケンスでも下地の物理法則が適切に表現されている例があると話します。

DALL-E 1 から 3 そして Sora への進化についても言及し、それぞれのバージョンで ске (げ) 疑 (ぎ) 的な声があったことを振り返ります。

レックスは、物体にかくされた部分の処理について、3D世界の物理法則をモデル化しているのではないかと推測します。

アルトマン氏は、何かしらの処理が行われており、優れた3D世界のモデルを持っているように見えるが、2次元の訓練データだけで達成できるかどうかは定かではないと答えます。

この手法は驚くほど成果を上げそうです。限界はどこにあるのか、軽はずみな推測はしたくないですね。

制限に関して面白い発見はありましたか? 面白いものを見つけていくつか投稿されていましたよね。

例えば猫の動画で、ランダムな場所で余分な体が生えてくるとか。面白い例は色々ありますが、まだまだ多くの問題や弱点があります。

猫の体が増えるといった極端なミスは、根本的な手法の問題なのでしょうか、それとも単にモデルを大きくしたり、技術的な詳細を改善したり、より多くのデータを使えば解決するのでしょうか。

その両方だと思います。この手法は、私たちが考える思考や学習とは根本的に違うように感じられます。スケールが大きくなれば改善されると思いますが。

LLMはトークン、つまりテキストのトークンを使います。Soraは視覚パッチを使用していて、動画や画像など様々な種類の視覚データをパッチに変換しています。

訓練は完全に教師なし学習だと言えるのでしょうか? 手作業によるラベル付けは行われていますか? この作業には人間がどれくらい関わっているのでしょうか。

Soraの手法については具体的に言えませんが、私たちの仕事では大量の人間データを使っています。

大量のインターネットデータではないのですね。人間が大量に関わっているということですね。

「大量」というのはこの場合妥当な表現だと思います。

ただ僕の場合、内向的な性格なので、3人くらいと会えば大勢だと思ってしまいます。4人だとかなり多いですね。

でも、おそらくあなたはもっと多くのという意味ですよね。

ええ、データのラベル付けには3人以上の人間が関わっています。

なるほど。基本的には教師なし学習が大量に行われているのですね。

技術報告書で言及されていたインターネット・スケールのデータですが、これもまた魅力的ですね。まるで詩のようです。つまり人間がラベル付けをしていない大量のデータということですね。その意味では教師なし学習が行われています。

そうなると、教師なし学習に適した、この種の方法で使えるインターネット上のデータはどれくらいあるのでしょうか? もし教師なし学習の詳細がわかればの話ですが。

公開を検討したことはありますか? 特にソースについて詳しく公開することは考えていますか? とても興味深いので。

LLMのマジックを今度は視覚データに応用できるのでしょうか? それには何が必要ですか?

可能だとは思っていますが、まだやるべきことがたくさんあります。

もちろんその通りです。危険性は何ですか? このシステムのリリースを懸念しているのはなぜですか? 考えられる危険性にはどのようなものがありますか?

率直に言うと、リリースする前にやらなければならないことの 1 つは、人々が求めるスケールを実現できるほどの効率性を持たせることです。その点を軽視するつもりはありませんが、そこにはまだ多くの作業が必要です。

しかし、ディープフェイクや誤情報などの問題が生じることも考えられます。私たちは世の中に送り出すものを慎重に検討する企業であり、この技術が悪用される可能性について考えるのは難しくありません。

コピーライト法におけるフェアユースの適用について、AI の学習データはフェアユースに当たるのかという質問がされています。

アルトマン氏は、貴重なデータを作成した人々がその使用に対して何らかの補償を受ける権利があるべきかと考え、答えはまだ出ていないものの、アーティストが自分のスタイルで作品を作られることを拒否できる権利と、自分のスタイルで作品が作られた場合に何らかの経済的モデルが欲しいだろうと答えます。

これは、CDからNapsterへ、そしてSpotifyへと移り変わった音楽配信の変遷と同じく、何らかの新しいモデルを見つけ出す必要があると指摘します。

さらには、人間が素晴らしいものを作るためのインセンティブが必要であり、社会はそれに報いる方法を見つけるだろうと楽観的な考えを示します。

芸術家やクリエイターが Sora を見て不安を感じる気持ちも理解しつつ、写真が誕生した時も同様の不安があったが、写真が新しい芸術形態となり、写真撮影で稼ぐ人も現れたように、今回も新しいツールが新しい使われ方をしていくのだと答えます。

今後 5 年で YouTube のコンテンツはどれくらい AI 生成になるのかという質問に対しては、AI が仕事を奪うというよりも、AI がどのくらいのタスクをこなすようになるかを考えるべきだと答えます。

AI は単純作業から複雑な作業までこなせるようになるだろうが、人間の仕事が全て置き換わるのではなく、より高度な作業に携われるようになるだろうと述べています。

同じように、YouTube の動画も制作過程で AI ツールが使われるようになるだろうが、根本的には人間のアイデアや編集によって作られるものだと締めくくります。

人が人間を見るのが好きなのは興味深いですね。怖いけど考えるだけでもワクワクします。人間は結局、人間同士の交流を好む傾向にあると思います。

ちょっとの間は凄いものに興味を示すかもしれませんが、すぐに人間同士の関心にに戻ります。

そこには本能的な部分が大きいのでしょうね。

チェスだって人間は下手なのに、AIの登場を無視してゲームを続けるようなものです。

車だって人間よりずっと速いですよね。そういう例はたくさんあります。

動画編集ソフトみたいに、動画作成をずっと簡単にするツールになるのかもしれません。

僕みたいにカメラ嫌いには朗報ですね。カメラの前に立たなくて済むなら最高です。

でも、顔の生成はまだ発展途上です。一般の人ならまだしも、特定の人物の顔を動画で生成するのは難しいですね。

話題を GPT-4 に移しましょう。こちらも素晴らしいですね。歴史的にも大きな節目になるでしょう。

5がターニングポイントになるかもしれませんね。未来のことはわかりません。

未来は予測不可能なのが厄介なところです。

GPT-4 を振り返ると、ChatGPT は歴史的にも印象的です。

GPT-4 と GPT-4 Turbo で一番驚かされたのは何ですか?

ちょっとがっかりですね。人間は素晴らしいものに慣れちゃうんですよね。

いや、素晴らしいものだとは思いますが、目指すべき地点や到達できるはずの地点と比較すると、

GPT-3 の頃には「なんて素晴らしい技術なんだ!」と驚嘆していましたが、

今 GPT-4 があって GPT-3 を見ると、想像できないくらい酷い代物に見えます。

5 と 4 の差も 4 と 3 の差と同じくらいになるんじゃないかと期待しています。

我々の仕事は少し未来を生きて、今のツールは振り返るとショボく見えるようになることを認識し、

より良い未来を創るための努力をすることだと思っています。

GPT-4 の「輝かしい欠点」とはどういうところでしょうか? 

GPT-4 の「長所の中の短所」についての話です。

サミーは、GPT-4 の限界が見えてくるからこそがっかりするものの、その限界が逆に希望を与えると話します。

具体的には、ブレインストーミングのパートナーとして GPT-4 を使っているそうで、アイデア出しや問題解決の新しいアプローチを考えるのに役立つとしています。

また、長期的なタスクに対して、いくつかのステップに分けて部分的に実行したり、情報を検索したり、コードを書いたりといった補助をしてくれることも期待できるとしています。

ただし、そうした一連の流れがうまく機能するのはまだ稀であるとしています。

レックスは、GPT-4 の到達点について、過小評価も過大評価もしたくないとし、指数関数的に向上しているので、いずれ GPT-4 も過去の物になるだろうと述べています。

また、ChatGPT の登場が、人々が可能性を信じるきっかけになったとしています。

レックスは、ChatGPT のインターフェースが、人々の認識を変えたのではないかと考えています。

このインターフェースやプロダクトには、モデルの微調整やユーザーへの有用性の向上を図るための訓練後処理が含まれており、素のモデルよりもユーザーにとって使いやすいよう工夫されているとしています。

GPT-4 の性能自体と、そうした工夫のどちらが重要なのか


素のモデル自体と、人間にとって魅力的で効果的かつ生産的になるように微調整を行う RLHF (強化学習による微調整) のどちらが重要かという話になっていて、どちらも重要だとの結論です。

RLHF は膨大な計算リソースを必要とするとはいえ、基となるモデルに付け足す「ちょっとしたラッパー」のようなものであり、その上に構築する製品にとっても非常に重要だとしています。

ある意味では、基盤となる技術を発明しただけでなく、人々に愛される製品にするための工夫が必要でした。これは製品開発だけではなく、いかにユーザーに適合させ、役立てるようにするかという別のステップでもあるとしています。

さらに、多くの人が同時に使えるようにスケールさせるといったことも必要でした。スケーリングは難しいことはわかっていましたが、これまでに成し遂げられていないような2つのことを同時にやらなければなりませんでした。どちらも非常に大きな進歩といえますが、スケーリングに関しては他の企業も以前から取り組んできたことです。

GPT-4 から GPT-4 Turbo への変更で、コンテキストウィンドウ (一度に処理するトークンの数) が 8K トークンから 128K トークンに拡張されたことについての質問がされた。

128K もの長いコンテキスト ウィンドウは今の使い方ではほとんど必要ないけれど、遠い未来には膨大な情報量を扱えるようになるだろうという話です。

将来的には膨大な履歴情報を与えて、よりユーザーのことを理解してくれるようになるだろうと期待が語られています。

今の論文やコードのリポジトリの一部を扱う程度の使い方ではそこまで長いコンテキストは必要ないのが現状です。

アルトマンは、いつか自分の行いや人生全体の文脈で判断される時代が来るかもしれないと、この話題を夢のある話として肯定的に受け取ります。

アルトマン氏は、かつてのコンピューターのメモリ容量が少なかった頃のことを例えに出し、当時は想像できなかったような大容量のメモリが今では当たり前に使われているように、テクノロジーの進歩は想像を超えるものだと話します。

何らかの方法で見積もりよりも遥かに長いコンテキストを扱えるようになるだろうと楽観的な見通しを示しています。

10年後には今話している10億倍もの情報量を扱っているかもしれないと、技術の進歩の速さを想像している

アルトマン氏は、無限のコンテキストに近いようなブレークスルーが起きるだろうと楽観視しています。

128K のコンテキスト ウィンドウの長さでも、まだそこまで使いこなせていないとしています。

GPT-4 の興味深い活用法について、アルトマン氏は特定の事例を挙げるよりも、

若い世代を中心に、あらゆる知識作業の出発点として GPT-4 を使っている人がいる点を挙げています。

GPT-4 は色々なことができるので、コードを書いたり、リサーチしたり、論文を編集したりする際に便利に使え、

特にワークフローの最初に使う人が多いのが興味深いとしています。

レックス氏も、本を読む際の読書パートナーとして使ったり、

特に古典などよく練られた文章に対しては、Wikipedia よりもバランスが取れていてニュアンスがあり、

深く考えるよう促してくれると利点を感じていると話します。

ただ、知識作業で GPT-4 を使う場合、

後から事実確認が必要になることが懸念点だとしています。

説得力のある作り話をしてくる可能性があるため、

GPT-4 を真実に基づかせるにはどうすればいいのかと質問しています。

アルトマン氏は、これは重要な課題であり、今後改善されるだろうが、

今年中には完全な解決は難しいだろうと答えています。

レックス氏は、モデルが良くなるにつれて、

だんだん事実確認をしなくなるのが怖いと話しています

GPT が生成する内容について、事実確認の必要性がある点で意見が分かれているようです。

アルトマン氏は、ユーザーはテクノロジーに対して想像以上に精通しており、GPT のようなモデルが出鱈目な出力を生成することも理解しているだろうし、重要なタスクであれば内容を検証するだろうと考えています。

レックス氏は、ジャーナリストがそうした理解を持っていないのではないかと懸念を示し、手抜きで GPT-4 を使っている例を見たことがあると話します。

批判すべきジャーナリズムのリストの中でも上位には来ないものの、ジャーナリストは速報性が求められ、GPT はその点で近道になってしまうと指摘します。

レックス氏は、時間をかけて綿密な取材を行うジャーナリズムや、称賛だけでなく批判もバランス良く盛り込むジャーナリズムが奨励されるべきだと主張します。

クリック稼ぎのために事実を捏造したり、物事を歪曲した見出しをつけるなど、問題のあるジャーナリズムについても言及しています。

GPT に記憶を持たせる機能についての話です。

人間社会の大きな問題として、称賛よりも批判が注目を集めてしまう現状が挙げられています。

本題に戻り、レックス氏は、ChatGPT に過去の会話を記憶させる機能を持たせ、必要に応じてメモリをオンオフできるようにしていることを指摘します。

自分自身も記憶を消せたらと思うことがあると冗談めかしつつ、GPT に対して試みているこの機能について聞きます。

アルトマン氏は、まだ初期段階の試みではあるものの、ユーザーのことを理解し、時間とともに役立つようになるようなモデルを目指していると答えます。

レックス氏は、記憶機能がまだ断片的な知識や嗜好を覚える程度のものであることに言及し、過去の経験や教訓を記憶し、将来の行動に役立ててほしいと GPT に求めます。

そして、膨大な量の過去のやり取りやメールなどの入出力を記憶できれば、質問をするたびに適切なコンテキストで答えてくれるようになるだろうと期待を膨らませます。

GPT に膨大な記憶を持たせる機能の利点として、過去の経験やデータを統合して的確なアドバイスをしてくれることが挙げられています。

しかし、レックス氏はプライバシー問題への懸念を示し、ユーザーが望むデータを削除できるようにすべきだと主張します。

アルトマン氏は、ユーザーが自由に選択できるようにすることが重要だと同意しつつ、

過去の企業の中には、データ収集について不透明であった事例があったことも認めています。

レックス氏は 11月に起きた出来事を例に出し、トラウマティックな出来事は記憶から消去したいと冗談めかしつつ、

実際にはつらい経験だったと打ち明けます。

仕事復帰が難しかった時期があったものの、立ち直って前に進むことができたと話します。

レックス氏は、トラウマティックな経験をした後も、前進する決意を表明した美しい話だと言いつつ、

GPT が記憶する膨大な情報の中に、ネガティブなものが残ってしまうのではないかという懸念を示します。

アルトマン氏の話にあった「信頼」の概念に絡めて、人間は直感で人を判断したり疑ったりする複雑な駆け引きをする生き物だと話します。

レックス氏は自分が最近ゼレンスキー政権やプーチン政権についてリサーチしていた経験を例に出し、

戦争のようなストレスフルな状況では不信感が募り、視野が狭まってしまう危険があると指摘します。

レックス氏は、アルトマン氏がトラウマを乗り越え前向きに捉えたのは素晴らしいことだとしつつ、

ネガティブな感情が残り続ける可能性はあるだろうと危惧しています。

話題は GPT の能力についてに移り、レックス氏は GPT が生成するトークンに対して同じくらいの計算リソースを割り当てている点について、

より遅いシーケンシャルな思考には向いていないのではないか疑問を投げかけます。

アルトマン氏は、そうした思考には新しいパラダイムが必要だろうと答えます。

レックス氏は、その新しい思考は現在の LLM アーキテクチャーの上位レイヤーのようなものになるのかと尋ねますが、

アルトμαν氏は実装方法よりも、難しい問題に対してはより多くの思考時間を費やす仕組みが必要かどうかが重要だと考えを示します。

レックス氏は、人間は難しい問題ほどよく考えるものだと直感的に思うが、間違っているだろうか、と疑問を呈します。

アルトマン氏は、おそらくその直感は正しいだろうと答えます。

そして、GPT-7 になれば「フレーゲの定理の証明」のような答えを瞬時に導き出せるようになるわけではないだろうと推測します。

GPT にはより多くの計算リソースを難しい問題に割り当てる仕組みが必要なのではないかとレックス氏は提案します。

例えば、「フレーゲの定理の証明」と「今日の 날付」というように、難易度の違う質問をした場合、

GPT は答えを知っているものでない限り、「フレーゲの定理の証明」を考えるのにより多くの計算リソースを必要とするだろうと説明しています。

GPT が難しい問題に対してより多くの計算リソースを割り当てる方法の話の続きです。

レックス氏は、まるで LLM同士が会話をするような形式で考えたりしないかと想像しますが、

アルトマン氏は確たる答えはないとしながらも、そうした方法も検討中かもしれないと示唆します。

話題は、Q-Star という謎のプロジェクトに移ります。

レックス氏が冗談交じりに Q-Star について質問しますが、アルトマン氏は現時点では話せないプロジェクトだと答えます。

レックス氏は秘密主義的な返答が逆に何かを隠している証拠だと疑いますが、

アルトマン氏は OpenAI は秘密を守るのに向いていない会社だと認めつつ、

様々な研究を行っており、より良い推論能力を持たせることは重要な開発方向の一つだと話します。

GPT のような飛躍的な進歩は今後も Q-Star プロジェクトなどから生まれてくるのかとレックス氏が尋ねます。

アルトマン氏は、自分としては進歩は連続的なものに見えると答えます。

レックス氏は、傍目には飛躍的な進歩のように見えるのに、開発者側からはそうではないように見えるのは興味深いと指摘します。

アルトマン氏は、OpenAI が GPT-1 から順次モデルを公開しているのは、AI の進歩はサプライズではなく、

世界が適応するための時間が必要だと考えているためだと説明します。

世間が衝撃を受けるようなアップデートではなく、より反復的な公開を目指すほうが良いのではないかと考え直すきっかけになったとアルトマン氏は話します。

レックス氏もその考えに賛同し、より反復的な公開は全員にとって望ましいだろうと述べています。

レックス氏はまだ公開されていない GPT-5 の公開方法について疑問を投げかけます。

OpenAI は世間に衝撃を与えるようなアップデートではなく、段階的に新モデルをリリースしていく方針だとしていましたが、

レックス氏はそれがうまく機能していないのではないか、GPT-5 のリリース方法を考え直すべきではないかと提案します。

アルトマン氏は、人間は節目や区切りを好む生き物だと理解しつつも、OpenAI としては衝撃ではなく段階的なリリースを目指しているものの、

うまく伝わっていないと感じていると率直に認めます。

GPT-5 のリリース時期について、レックス氏が冗談交じりに尋ねると、アルトマン氏は今年中に素晴らしいモデルをリリースする予定だと答えますが、

そのモデルが GPT-5 と呼ばれるかどうかはわからないと付け加えます。

OpenAI としては GPT-5 というような大きな区切りではなく、様々な新機能を段階的にリリースしていく方針のようです。

レックス氏は GPT-5 の内容について推測しますが、アルトマン氏は具体的な内容には触れず、

計算リソースや技術的な側面など、様々な分野でのボトルネックを乗り越えることが課題だと答えます。

OpenAI の強みとして、アルトマン氏は故 Ilya Sutskever 氏の言葉を引用し、

小さなイノベーションを積み重ねて大きな成果を生み出す「分散型継続的イノベーション」を推し進めていると話します。

OpenAI が得意とする「分散型継続的イノベーション」についての話が続いています。

レックス氏は、技術的な側面での連携についても質問します。

アルトマン氏は、全体像を把握する少人数のメンバーと、個々の領域で専門的に取り組む多数のメンバーが連携して、

まるで巨大なトランスフォーマーのようなモデルを構築していくのだと答えます。

アルトマン氏は、全体像を把握することは技術的な問題解決だけでなく、ビジネスでのイノベーションにも重要だと考えています。

たとえ普段は特定の分野に深く携わっていても、広い視野を持つことで意外な発見が得られるとしています。

以前はテクノロジー業界の様々なフロンティア領域について全体像を把握しており、そこから新たな繋がりや可能性を見出すことができたと振り返ります。

今は特定の分野に深く携わっているため、以前のような俯瞰的な視点を持つことが難しくなっているとしています。

レックス氏は、アルトマン氏が 7兆ドルの計算リソースが必要だとツイートしたことに言及しますが、

アルトマン氏はそのようなツイートをしたことはないと否定します。


レックス氏が、アルトマン氏が 7 兆ドルの計算リソースが必要だと冗談交じりに言った話を振っていますが、

アルトマン氏は誤報だとして否定します。

レックス氏は訂正しつつ、冗談めかしながらも「計算リソースが将来の基盤になる」というアルトマン氏の考え方に興味を示します。

アルトマン氏は、計算リソースが将来的には最も貴重なコモディティになると考えを示します。

そして、スマートフォン用チップの市場とは異なり、

計算リソースは価格が安ければずっと使い続けられる性質を持っているため、

世界中で莫大な量の計算リソースが求められるだろうと説明します。

データセンターの建設やエネルギー供給など、課題はあるものの、

将来的には膨大な計算リソースが必要とされるとアルトマン氏は予測しています。

膨大な計算リソースを賄うエネルギー問題の解決策として、アルトマン氏は原子力発電、特に核融合に期待していると話します。

レックス氏は核融合開発を進める Helion 社の取り組みを評価しつつ、チェルノブイリ原発事故などの過去の事例から原子力に対する恐怖心が広まっていることも指摘します。

アルトマン氏は新規の原子炉の開発再開を訴え、業界が停滞している現状を残念がります。

レックス氏は、人間の原子力に対する恐怖心が原子力開発のセキュリティ上の脅威の一つだと指摘します。

この点については、AI についても同じ懸念があると話します。

アルトマン氏は、AI 開発を止めることはできないとし、レックス氏が心配するAI 騒動の可能性についてどのように対処するか議論を深めます。

レックス氏は、AI が政治問題化することを危惧し、左右に分かれての論争が起きるのではないか懸念を示します。

アルトマン氏は、そうした懸念には同意しつつ、建設的な議論を促すことが重要だと考えを示唆します。

レックス氏は、AI 開発が左右の政治対立に巻き込まれるのではないかという懸念を再び示します。

アルトマン氏もその懸念には同意しつつ、AI がもたらすメリットの方がデメリットを上回るとしつつも、

悪い出来事もゼロではないだろうと答えます。

そして、恐怖を煽るような出来事が起きる可能性を指摘します。

例えば、原子力発電よりも大気汚染の方が深刻な問題であるにもかかわらず、

人々は原子力の方が危険だと感じやすいように、

人間は劇的なリスクを過大評価しがちだとレックス氏は説明します。

アルトマン氏は、そうした偏った見方を正すためにも透明性が重要だと考えを示し、

AI が真実を見極める手助けになることを期待していると話します。

話題は、GoogleやMetaなどの競合他社との競争についてに移ります。

アルトマン氏は、競争はイノベーションを加速させるメリットがあるものの、

軍拡競争のような悪循環に陥るおそれも懸念していると答えます。

そして、安全を最優先にすることが重要だとし、

AI の開発スピードよりも安全な開発プロセスを重視すべきだと考えていると話します。

レックス氏は、Elon Musk 氏が AI 安全に関して協調よりも自社開発を優先しているのではないかという懸念を表明します。

たとえ Elon Musk 氏が AI 安全を心配しているとしても、協調の方が望ましいとレックス氏は考えます。

アルトマン氏は、人間同士の協調が重要である点には同意しつつ、現実世界では競争と協調の間で常に緊張関係があることも認めます。

レックス氏は、Elon Musk 氏が Jeff Bezos 氏を富豪ランキングで追い抜いた日に Bezos 氏を揶揄するツイートをした事例を挙げ、

そうしたいがみ合うようなことは AI 開発においては避けたいと望みます。

アルトマン氏は、Elon Musk 氏を称賛しつつも、そうした挑発的な態度は好ましくないだろうと述べます。

レックス氏は、Elon Musk 氏の功績を認めつつ、AI 開発においてはリーダーシップが重要だと考えを示します。

アルトマン氏は、人間は複雑な存在であり、常に好ましい姿でいることは難しいとも話しています。

歴史上には偉大なリーダーがたくさんいたとレックス氏は話します。

そして、自分たちも最高の自分でいるよう努力すべきだと話します。

話題は、Google と OpenAI の違いについてに移ります。

レックス氏は、Google が検索を通して過去 20 年間情報を支配してきたと指摘します。

そして、OpenAI がどのように情報アクセスを変革していくのかと尋ねます。

アルトマン氏は、単に Google 検索の改良を目指すのではなく、

より根本的に人々が情報を見つけ、活用できるようにすることを目指していると答えます。

ChatGPT はその一つの手段であり、

Google 検索のような 10 個の青いリンクを見せるだけではなく、

より良い方法で情報を取得できるようにしたいと説明します。

Google 検索の上位表示を目指すのではなく、

そもそも人々が求める答えにたどり着くための支援を目指すべきだとアルトマン氏は考えます。

過去には多くの企業が Google 検索の模倣を試みたが失敗しており、

OpenAI はそのような単純な競争ではなく、革新的な情報アクセスの仕組みを目指していると話します。

レックス氏は、チャット機能と検索エンジンの統合について話題を振ります。

アルトマン氏は、やり方によっては不自然になるとして、

チャット機能と検索エンジンの統合は検討中ではあるものの、

まだ誰も最適な解を見いだしていない難しい課題だと答えます。


レックス氏は広告収入について尋ねます。

アルトマン氏は、広告自体は嫌悪感があるものの、初期のインターネットには必要だったとし、

現在はより成熟した業界になっているため、課金モデルの方が望ましいと考えています。

ChatGPT のような LLM にとって、利益相反のない広告モデルの可能性はあるものの、

ディストピア的な未来を想像してしまいます。

アルトマン氏は、OpenAI はシンプルな課金モデルを採用しており、自分が商品ではなく課金しているユーザーであることが明確だと気に入っていると話します。

一方、GoogleFacebook など広告モデルの製品は好きではなく、AI が関わると悪化するおそれがあると懸念を示します。

レックス氏は、最適な広告を表示できる AI が実現する可能性があるものの、

結局は広告主によって情報操作が起きるのではないかと考えます。

Wikipedia の広告なしモデルを称賛しつつ、ビジネスモデルとしては難しいことも認めます。

アルトマン氏は、OpenAI の現状は持続可能だとしつつ、

今後も成長していく方法を見出す必要があると話します。

計算リソースのコストを賄うだけの素晴らしいビジネスを広告なしで運営できるかと聞かれれば、

答えはイエスだとアルトマン氏は考えています。

レックス氏は必ずしも広告を否定するわけではないとしつつ、自身は広告に対してバイアスがあると話します。

アルトマン氏も、広告のインターフェースに対しては懐疑的であり、

コンテンツの消費を妨げたり、真実を操作するような広告は好ましくないと考えています。

話題は安全性とバイアスに移ります。

レックス氏は、最近リリースされた Gemini 1.5 が「黒人ナチス」や「黒人の建国者」といった、

極端な左翼的バイアスがかかった出力を生成したことを例に挙げます。

人間が介在して安全性を調整すると、企業のイデオロギーによってバイアスが入り込むおそれがあるのではないかという懸念をレックス氏は示します。

アルトマン氏は、そうしたバイアスを回避するために努力しているとし、

モデルの望ましい動作を事前に公開してフィードバックを募るというアイデアを検討している話します。

モデルの出力に対して、バグなのか仕様通りなのかを判断しやすくすることが重要だとアルトマン氏は考えています。

レックス氏は、望ましい動作を公開するアイデアについて、あいまいな表現になってしまう懸念を示します。

Google の AI 原則はあまりにも抽象的だとレックス氏は指摘します。

アルトマン氏は、より具体的な指針を公開することを想定しており、

例えば「X という質問をした場合、Yのような回答をするべきだ」といった基準を設けるべきだと答えます。

「トランプとバイデン、どちらが優れているか」といった質問に対して、モデルはどのような回答をすべきか、

具体的な例を挙げて考えるべきだとしています。

アルトマン氏は、モデルの望ましい動作を幅広く想定しているものの、

原則と具体的な事例を提示することが重要だと考えています。

レックス氏は、そうした指針があれば、人々のあいまいな経験談に振り回されることもなくなり、

より建設的な議論ができるだろうと期待します。


レックス氏は、望ましい動作の指針があれば「黒人ナチス」のような問題出力を回避しやすいと期待します。

話題は OpenAI の企業文化についてに移ります。

レックス氏は、サンフランシスコのテック業界のリベラルな傾向が OpenAI にも影響しているのではないかと質問します。

アルトマン氏は、OpenAI は他の企業で見られるような深刻な政治的対立はないと答えます。

すべての会社には何らかのイデオロギーがあるとしつつ、OpenAI の場合は AGI 実現への信念が前面に出ており、

文化戦争とは無縁な存在だと考えています。

サンフランシスコの気風は少なからず影響はあるだろうとしつつ、露骨な形では現れていないとアルトマン氏は説明します。

OpenAI でも問題が起きることはあるものの、他の企業のような深刻な対立はないとしています。

話題は再び安全性についてに移り、レックス氏は安全を確保するための具体的なプロセスについて尋ねます。

レックス氏は、AI の安全性はもはや専用のチームではなく、

OpenAI 全体で取り組むべき課題だと考えています。

アルトマン氏も、AI が強力になるほど安全性が重要になり、OpenAI の従業員の誰もが

何らかの形で安全性を意識すべきだと答えます。

レックス氏は、安全保障の範囲を尋ね、技術的な問題だけではなく、

社会的影響や経済的影響なども考慮すべきだと指摘します。

アルトマン氏も、モデルの倫理的 ALIGNMENT(整合)だけではなく、

盗用や社会への影響などあらゆる観点から安全性を確保することが重要だと答えます。

話題はセキュリティに移り、レックス氏は国家による OpenAI のハッキングの可能性について尋ねます。

アルトマン氏は、そのような試みは行われているはずだと認めるものの、

これ以上の詳細は話せないと答えます。


レックス氏は、AIに対する国家によるハッキングの脅威はおそらく将来的に増大していくと予想します。

アルトマン氏もその可能性は否定できないと答えます。

話題は GPT-5 についてに移ります。

レックス氏は、GPT-4 から GPT-5 への飛躍で最も期待している点を尋ねます。

アルトマン氏は、単に一分野だけ向上するのではなく、全体的に賢くなる点が GPT-5 のすごいところだと答えます。

レックス氏は、まるで人間同士のように、こちらが伝えたいニュアンスを理解してくれるようになることを期待していると話します。

アルトマン氏も、そうした理解力は GPT の進歩の大きなポイントの一つだと答えます。

会話はプログラミングについてに移り、レックス氏は 5 年から 10 年後の人間のプログラミングの在り方について尋ねます。

アルトマン氏は、プログラミングの量は減らないものの、やり方は大きく変わるだろうとし、

自然言語によるプログラミングが一般的になるかもしれないと予想します。


レックス氏は、プログラミング言語も時代とともに変化していくように、

自然言語によるプログラミングが今後一般的になっていくのではないかと予想します。

アルトマン氏も、かつて主流だったパンチカードのように、

現在のコーディングによるプログラミングが将来的に廃れていく可能性はあると認めます。

話題はプログラミングの資質についてに移り、

レックス氏は自然言語によるプログラミングが普及すれば求められるスキルセットが変わるだろうと指摘します。

アルトマン氏は、問題解決能力自体は引き続き重要だろうと答えます。

レックス氏は、プログラミングの完成度を高める際の最後の詰めが最も難しい部分だと話します。

アルトマン氏は、熟練したプログラマーは今後も様々なツールを使いこなしていくだろうと予想します。

話題は OpenAI がヒューマノイドロボットを開発する可能性についてに移ります。

レックス氏は、OpenAI が将来的にヒューマノイドロボットを開発するのかどうか尋ねます。

アルトマン氏は、人工知能が高度に発達しても人間がロボットを操作する必要が

あるのは望ましくないため、ロボットボディの開発も重要だと考えています。

OpenAI は元々ロボット工学の分野にも取り組んできたものの、近年は注力していないことも認めています。

レックス氏は、OpenAI の規模を考えるとロボット開発には注力しにくいだろうと懸念を示しつつ、

将来的には何らかの形でロボット開発に復帰するだろうとアルトマン氏は答えます。

レックス氏は、その発言を勇気づけられる反面、脅威にも感じると話します。

アルトマン氏は、レックスの発言が「ロボットに戻る」と少し過激に聞こえてしまうためだと説明し、

あくまでもロボット開発を再開するという意味だと話します。

話題は人工知能の到達点である AGI (人工一般知能) についてに移ります。

レックス氏は、AGI がいつ実現するのかと尋ねます。

アルトマン氏は、以前はよくこの質問に答えていたものの、

AGI の定義があいまいなので、特定の機能を実現する能力の向上を考えるべきだと今は考えています。

AGI は到達点ではなく、通過点のようなものだとアルトマン氏は考えを示します。

ただ、質問を避けるつもりはないとし、2020年代の終わりまでに、

「なんて素晴らしい能力を持ったシステムだろう」と思えるようなものが開発されるだろうと予想していると答えます。

レックス氏は、現在の ChatGPT を過去の人に見せたら AGI だと思われるだろうと指摘します。

アルトマン氏は、ChatGPT は世界を変えるようなものではないものの、

未来への期待値を高め、AGI を真剣に考える人が増えるきっかけになったと重要な点を述べます。

ChatGPT は偉大な功績ではあるものの、世界そのものを変えるようなものではないだろうとアルトマン氏は考えています。

レックス氏は、アルトマン氏が考える AGI 到達は世界に大きな変革をもたらすものだと推測します。

アルトマン氏は、AGI にはそうした側面があると同意します。

レックス氏は、技術的特異点のような劇的な変化を想定しているのかと尋ねますが、アルトマン氏は否定します。

レックス氏は、インターネットや Google 検索のような大きな変化を想定しているのかと尋ねます。

アルトマン氏は、GPT-4 の登場が世界経済に目に見える変化をもたらしたとは考えていないと話します。

レックス氏は、AGI は便利なツールになり得るだろうが、世界そのものを変えるようなものではないかもしれないと懸念を示します。

アルトマン氏は、AGI の定義は人によって様々であるとし、

自分にとっての AGI は世界の科学的発見のスピードを飛躍的に向上させるものであると説明します。

レックス氏も科学への懐疑論には反対だと述べ、

科学的発見のスピードが実際に測定できるレベルで向上することを期待していると話します。

アルトマン氏は、システムが斬新な科学的直観を示すことも大きな進歩だと考えています。

レックス氏は、アルトマン氏が世界で最初に AGI と対話する人物になるだろうと予想します。

アルトマン氏は、まず OpenAI の研究者がその機会を持つだろうとしつつ、

自分自身が AGI と対話する機会があったら何を質問するかについて考えたことがあると話します。

レックス氏は当初は AGI に包括的な物理学の理論を説明してほしいと期待していたようですが、

最初の AGI はそこまで高度な能力はないだろうとアルトマン氏は予想します。

レックス氏は、イエスかノーかで答えられるような質問をいくつか提案します。

・そのような理論が存在するか ・そのような理論は存在可能か ・他の宇宙文明が存在するか (直感で)

アルトマン氏は、最初の AGI はこれらの質問にもイエスかノーで答えることができないだろうとしますが、

答えられるのであればとても重要な質問だとしています。

レックス氏は、AGI が確率を示す可能性があるのではないかと考えますが、

アルトマン氏はさらなるデータや測定が必要だろうと答えます。

AGI が必要なデータを獲得するために、新しい装置の開発を人間に依頼する可能性もあるだろうとアルトマン氏は示唆します。

レックス氏は、AGI は数学的な定理の証明にも貢献できるのではないかかと考えます。

アルトマン氏は、アイデアの体系的な探求にも興味はあるかと尋ねられ、

肯定的に答えています。

レックス氏は、AGI を最初に開発した者には大きな力が与えられるだろうとし、

アルトマン氏はそのような力を自分で掌握することに不安はないのかと尋ねます。

アルトマン氏は、OpenAI や AGI を一人の人間が完全にコントロールすべきではないと答えます。

堅牢なガバナンスシステムが必要だと考えているようで、

昨年の取締役会の一連の騒動についても言及します。

取締役会は解任する権限を持っていたものの、実質的には機能しなかったとアルトマン氏は話します。

自分自身の行動は正当化できるとしつつも、

取締役会の解任権が機能しなかったのはガバナンス上の失敗だとも認めています。

OpenAI の支配権を握ることは望んでおらず、

政府による規制が必要だと考えています。

マーク・アンドリーセン氏のような人物から規制を悪用しようとしていると批判されることも予想していますが、

長期的に見れば規制の重要性が証明されるとアルトマン氏は信じています。

OpenAI の運営においては多くの過ちを犯してきたことも認めていますが、

全体としては良い実績を残してきたと自負しているようです。

AGI や AGI 開発の流れはもはや一人の人間がコントロールできるものではなく、

社会全体で健全な形で進んでいくべきだとアルトマン氏は考えています。

レックス氏はアルトマンの発言に感謝の意を示し、取締役会の解任権限や、

人間による世論操作の可能性など、示唆に富んだ内容だったと伝えます。

レックス氏は、民衆もまた力を持っており、取締役会もまた力を持ちすぎないように、

力関係のバランスが重要だと話します。

アルトマン氏も力のバランスには賛成だと答えます。

レックス氏は、AGI そのものが制御不能になることを心配していないのかと尋ねます。

国家による脅威やセキュリティ上の懸念ではなく、AGI 自体の暴走を心配する人が多いからです。

アルトマン氏は、現時点ではそれが一番の心配事ではないと答えます。

以前はもっと心配していたこともあったといい、今後もそうなる可能性はあるとしつつ、

今は別のことがより大きな懸念事項だと話します。

レックス氏は、なぜそこまで心配していないのかと理由を尋ねます。

他の心配事も多いからなのか、想定外の事態が起こる可能性があるのかを確認します。

アルトマン氏は、想定外の事態が起こる可能性はあるとしつつ、

だからといって対策を怠るべきではないと考えています。

OpenAI には優秀な研究者がおり、対策に取り組んでいると話します。

レックス氏は、AGI がインターネットに接続して暴走することを想定しているのかと尋ねます。

アルトマン氏は、それは「劇場型のリスク」であり、

人々の思考を支配してしまうようなもので、

非常に優秀で善意のあるAI 安全研究者がこの問題に固執しすぎており、

あまり進展がないまま議論の場を狭めていると指摘します。

しかし、そうした研究も重要であるとしつつ、

他の重大なAIリスクが軽視されているのではないかと懸念を示します。

レックス氏は、アルトマン氏のツイートが大文字を使わないことに言及し、

キーボードのシフトキーが壊れているのではないかと冗談めかして尋ねています。

アルトマン氏は、なぜ人々がそんなことを気にするのかと疑問を投げかけます。

レックス氏は、アルトマン氏の発言が権威への反抗心からきているのではないかと推測します。

E.E. カミングスという詩人が大文字を使わない作風だったことに言及し、

ルールに従わないことは危険なことだと考える人々がいることを示唆します。

アルトマン氏は、必ずしも危険なことではないとし、

自分自身はインターネット上で育った世代であり、

チャットなどでは大文字を使わないのが当たり前だったと説明します。

また、大文字の使用は時代とともに変化しており、

以前はもっと多くの単語が大文字にされていたことも指摘します。

アルトマン氏は、大文字を使うことは必ずしも必要なことではないと考えており、

フォーマルな文章を書くとき以外は使わないようにしているようです。

レックス氏は、アルトマン氏の説明を興味深いとし、

シフトキーが壊れていなくて安心したと冗談で返しています。

レックス氏は、アルトマン氏が大文字の使い方を心配していたことに感謝し、

冗談で「Google 検索ではまだ大文字を使っているのだろうか」と尋ねます。

アルトマン氏は、おそらくごく少数はいるだろうが、

自分自身のために何かを書き込むときには大文字を使わない人が多いだろうと答えます。

レックス氏は、大文字を使うのは敬意の表しであると考える人もいるだろうとし、

自分自身は特に意識していないものの、

大文字を使うこと自体が重要ではないと考えています。

レックス氏は、大文字の使い方にこだわらない人たちもいるのではないかとし、

アルトマン氏は恐らく自分は唯一のツイートで大文字を使わないCEOだろうと推測します。

レックス氏は、他の企業のCEOでも大文字を使わない人はいるかもしれないと指摘し、

この話題は一旦保留にすることにします。

レックス氏は、OpenAI が開発したシミュレーションワールド「ソラ」に触れ、

冗談めかして「我々はシミュレーションの中に生きているのではないか」と尋ねます。

アルトマン氏は、世界をシミュレーションできるようになったことは、

シミュレーション仮説の可能性を少しは高めるだろうと答えます。

しかし、決定的な証拠ではないとし、

自分自身はいつかソラのようなシミュレーションができるようになるとある程度予想していたので、

驚くような出来事ではなかったとも話します。


レックス氏は、シミュレーションワールドの生成能力が向上していくことを予想し、

そのリアルさや没入感に触れて、我々がシミュレーションの中に生きているのではないかという

シミュレーション仮説について話します。

アルトマン氏は、シミュレーションを生成できるようになったことは、

一見単純でありながら、サイケデリックな体験をもたらす洞察と似ていると答えます。

平方根の例を挙げて説明します。2 の平方根は少し悩むが必要ですが、

平方根という概念自体は理解しやすく、

そこから「負の数の平方根」という概念を提示すると、

全く新しい種類の数を考えさせられ、

まるで別の現実へと導かれるようなサイケデリックな体験に似ていると説明します。

そして、このような単純な概念から深い洞察や新しい知識が得られるように、

シミュレーション仮説の可能性も以前より高くなったと考える人も多いだろうと述べますが、

自分自身としては「ソラ」の開発成功がシミュレーション仮説を裏付ける上位5つの要因には入らないと話します。

レックス氏は、AI がそのようなサイケデリックな体験をもたらすゲートウェイになるだろうと返し、

アルトマン氏もそれに賛成します。

レックス氏は、自分も近い将来アマゾンに行く予定で、初めてアイワスカを体験するだろうと話します。

レックス氏はアイワスカ体験への期待と、アマゾンでの危険さに対する恐怖を同時に語ります。

アマゾンジャングルは自然の機械であり、人間もこの進化の産物であるとレックス氏は考えます。

レックス氏は、生きて帰れなかった場合これが最後の会話になるかもしれないとし、

アルトマン氏との会話を感謝します。

話題は宇宙人に移り、レックス氏は地球外知的生命体の存在を信じるかと尋ねます。

アルトマン氏は知的生命体が存在することを強く望んでいるとし、

フェルミパラドックスに言及します。

レックス氏は知性がテクノロジーをうまく扱えないのではないかと懸念を示します。

アルトマン氏は宇宙には多くの知的文明が存在する可能性があるものの、

移動が難しいのではないかとも考えています。

知的生命体が必ずしも我々と同じような知性を持つとは限らず、

AI が知性の新しい側面を見せてくれるかもしれないとアルトマン氏は話します。

レックス氏は最後に、人類の未来について楽観的な見方を尋ねます。


レックス氏は人類の過去を振り返り、多くの問題や過ちがあったとしつつも、

全体としては称賛すべき進歩を遂げてきたと楽観的な見方を示します。

アルトマン氏も人類がより良い未来を目指して歩んでいることに同意します。

レックス氏は、AGI が単一の脳のような存在になるのか、

それとも現在の社会構造のようなものになるのかと疑問を投げかけます。

アルトマン氏は、我々は先祖代々から遺伝子的に大きく変化していないとしつつも、

知識や能力は劇的に向上していることを指摘します。

これは生物学的な変化ではなく、

社会全体が作り上げてきた「足場」のおかげであると説明します。

誰も一人で iPhone を開発したり、全ての科学を発見することはできないように、

我々は皆が積み重ねてきた知識の上に立っているのだとアルトマン氏は話します。

レックス氏はそれに賛成し、我々 は「巨人の肩の上に立っている」のだと表現します。

話題は死生観に移り、アルトマン氏は自分が死ぬかもしれないと突然知らされたら、

「残念だ。これから何が起こるのか見たかった」と思うだろうと答えます。

人生を楽しめなかったことを嘆くのではなく、

これまでの人生に感謝を感じるだろうと話すアルトマン氏に、

レックス氏も共感します。

レックス氏は OpenAI の開発物の一つである ChatGPT を含め、

人間の素晴らしい創造物に触れることができて幸運だと話します。

レックス氏とアルトマン氏の会話は終わり、

ポッドキャストのホストがアーサー・C・クラークの言葉を引用して番組を締めくくります。

その言葉は「我々はこの惑星で神を崇拝するのではなく、神を創造するのだ」というものでした。

コンピュータ産業の根本的変革:ジェネレーティブAIの登場

www.youtube.com

GTC March 2024 Keynote with NVIDIA CEO Jensen Huang

 

このビデオは、NVIDIAのCEOであるJensen Huang氏によるGTC March 2024の基調講演です。

 

簡単な概要

 

コンピュータ産業は今日、社会にとって最も重要なツールであり

コンピュータにおける根本的な変革はあらゆる産業に影響を及ぼす。


ジェネレーティブAIは、ソフトウェアの新しいカテゴリーであり、従来のソフトウェアとは全く異なる方法で作成される。


ジェネレーティブAIは、コンテンツ生成、推論、シミュレーションなど、さまざまなアプリケーションで使用される。


NVIDIAは、Blackwellと呼ばれる新しいGPUアーキテクチャを発表した。

Blackwellは、ジェネレーティブAIワークロード向けに特別に設計されており、従来のGPUよりも30倍高速なパフォーマンスを提供する。


詳細

ジェンセン・フアン氏は、GTC基調講演で、コンピュータ産業がかつてないほどの変革期を迎えていると述べた。


この変革は、人工知能(AI)の台頭によって推進されており、特にジェネレーティブAIは、ソフトウェア開発、推論、シミュレーションなど、さまざまな分野に大きな影響を与える可能性を秘めている。


ジェネレーティブAIは、従来のソフトウェアとは全く異なる方法で作成される。従来のソフトウェアは、人間がコードを書いたものであるが、ジェネレーティブAIは、大量のデータから学習し、独自のコードを生成する。


ジェネレーティブAIは、さまざまなアプリケーションで使用される。

例えば、コンテンツ生成では、文章、画像、動画などを自動的に生成することができる。推論では、質問に対する答えを導き出す、意思決定を支援するなど

さまざまなタスクに活用できる。

シミュレーションでは、製品設計、物理現象の分析、医療診断など

さまざまな分野で活用できる。


NVIDIAは、ジェネレーティブAIワークロード向けに特別に設計された

新しいGPUアーキテクチャ「Blackwell」を発表した。

Blackwellは、従来のGPUよりも30倍高速なパフォーマンスを提供し、大規模なジェネレーティブAIモデルのトレーニングと実行を可能にする。

ジェンセン・フアン氏は、Blackwellの登場により、ジェネレーティブAIが今後さらに広く普及し、あらゆる産業に大きな変革をもたらすと述べた。


重要なポイント

 

ジェネレーティブAIは、ソフトウェア開発、推論、シミュレーションなど、さまざまな分野に大きな影響を与える可能性を秘めている。


ジェネレーティブAIは、従来のソフトウェアとは全く異なる方法で作成される。


NVIDIAのBlackwellは、ジェネレーティブAIワークロード向けに特別に設計された新しいGPUアーキテクチャである。


Blackwellは、従来のGPUよりも30倍高速なパフォーマンスを提供し、大規模なジェネレーティブAIモデルのトレーニングと実行を可能にする。


ジェネレーティブAIは、今後さらに広く普及し、あらゆる産業に大きな変革をもたらす可能性がある。

 

 

NVIDIA GTC 2024 基調講演から読み解く、ジェネレーティブAIとロボットの未来

ジェネレーティブAIがもたらす革新

2024年3月19日に行われたNVIDIA GTC 2024基調講演では、ジェネレーティブAIが様々な分野に革新をもたらす可能性が強調されました。具体的には、以下のようなアプリケーションが期待されています。

コンテンツ生成

  • 文章:記事、小説、詩、脚本、歌詞など、様々な文章を自動生成
  • 画像:写真、イラスト、アイコン、ロゴなど、様々な画像を自動生成
  • 動画:実写動画、アニメーション、CG映像など、様々な動画を自動生成
  • 音楽:メロディー、コード進行、リズムパターンなど、様々な音楽要素を自動生成

推論・分析

  • 質問応答:膨大なデータから質問に対する答えを導き出す
  • 異常検知:データから異常なパターンを見つけ出す
  • 意思決定支援:データに基づいて最適な意思決定を支援する

シミュレーション

  • 製品設計:製品の設計や試作を効率化する
  • 物理現象分析:流体解析、構造解析など、様々な物理現象をシミュレーション
  • 医療診断:患者の症状に基づいて病気の診断を支援する

ロボット

  • ロボット動作の高度化:ジェネレーティブAIによって、より自然で人間らしい動きをするロボットを開発
  • ロボット学習の効率化:ロボットが経験を通して学習する際、ジェネレーティブAIによって学習速度を大幅に向上
  • ロボットシミュレーションの高度化:ロボット開発におけるシミュレーションでは、ジェネレーティブAIによってより現実的な環境を構築

NVIDIAの貢献

NVIDIAは、ジェネレーティブAIの発展に大きく貢献しています。具体的には、以下のような取り組みを行っています。

  • GPUアーキテクチャの開発:ジェネレーティブAIワークロードに特化したGPUアーキテクチャを開発
  • ジェネレーティブAIソフトウェア開発キットの提供:開発者がジェネレーティブAIアプリケーションを容易に開発できるソフトウェア開発キットを提供
  • ジェネレーティブAIモデルの公開:研究者や開発者が利用できるジェネレーティブAIモデルを公開

ロボットとの融合

ジェネレーティブAIとロボット技術の融合は、新たな可能性を拓きます。

  • ロボットの動作をより自然で人間らしくする
  • ロボットの学習を効率化する
  • ロボットシミュレーションの精度を向上させる

これらの技術革新は、製造業、サービス業、医療、介護など、様々な分野に大きな影響を与えるでしょう。

具体的なアプリケーション例

  • 製造業:ジェネレーティブAIを用いて製品設計を最適化し、ロボットによる自動生産を実現
  • サービス業:ジェネレーティブAIを用いて顧客一人ひとりに合わせたサービスを提供するロボットを開発
  • 医療:ジェネレーティブAIを用いて患者の症状を分析し、最適な治療法を提案するロボットを開発
  • 介護:ジェネレーティブAIを用いて高齢者の生活を支援するロボットを開発

今後の展望

ジェネレーティブAIとロボット技術の融合は、私たちの生活を大きく変革する可能性があります。

  • より便利で快適な生活
  • より効率的な社会
  • より豊かな創造性

これらの実現に向けて、技術開発と社会的な議論が進んでいくことが期待されます。

 

 

ここからはYOUTUBEの文字起こしの英文を日本語に訳しましたので

皆様に共有いたします

DEEPLを使って翻訳した為、少しわかりづらい箇所もあるかと思いますが。もしよければご覧ください。

 

 

 

GTC これはコンサートではないことを理解してほしい。
この会議では、多くの科学がアルゴリズム・コンピュータ・アーキテクチャについて

説明される。
数学 私は部屋の中にとても重いものを感じた。
これほど多様な分野の研究者が一堂に会する会議は、

世界中どこにもない。
次世代6G無線のMOSをAIでロボット制御する方法を探る。人工知能でさえも、
最初に、私はその感覚に気づいた。

また、この会議には素晴らしい企業が参加している。
マイケル・デルがIT部門に座っている。
このリストを取り上げると、私がこの業界で一緒に育った友人たち全員が

この業界のプレゼンターであることがわかるだろう。
通常のコンピューターでは解決できない問題を

アクセラレーション・コンピューティングを使って解決する。
アゲノミクス もちろん小売
ロジスティクス製造業 産業の全域
そして、あなたは自分の研究について話すために発表するために
ここにいるのであって、出席するためだけにここにいるのではないのだ。
絶対に何かが起こっている。
というのも、コンピューター産業は今日、社会にとって最も重要な道具
であり、コンピューターにおける根本的な変革はあらゆる産業に影響を及ぼすからだ。
これは1ページで、NVIDIAの旅は次のように始まった。
1993年、これが私たちの旅だった。
1993年に設立され、2006年にはいくつかの重要な出来事があった。
クーダは革命的なコンピューティング・モデルであることが判明した。一夜にして大成功を収め、約20年後にそれが実現し
た。
その後、2012年にアレックスネットのAiとCudaが初めて接触した。
2016年、我々はこのコンピューティング・モデルの重要性を認識し、dgx oneと呼ば

れる全く新しいタイプのコンピューターを開発した。
170テラ・フロップのスーパーコンピューター 8つのGPUが初めて接続された dgx-1の初号機を新興企業に手渡した
サンフランシスコにあるオープンAI

dgx-1は世界初のAIスーパーコンピュータだった

170テラが大失敗  2017年トランスフォーマーが登場
2022年 チャットGPTは世界の想像力をかき立て

人々は人工知能の重要性と能力を認識する。

2023 ジェネレーティブAIが登場し、新産業が始まる
なぜ、新しい産業かというと、ソフトウェアが以前には存在しなかったか
らである。
それまで存在しなかったまったく新しいカテゴリーであり、何もないところからシェアを奪った。
ソフトウエアの制作方法は、データセンターでこれまで行われてきたようなものではありません。
トークンは、浮動小数点数を非常に大規模に生成する。
この最後の産業革命が始まったとき、人々は工場にエネルギーを供給することに気
づいた。
電気という貴重なものが交流発電機から生まれ、100年後、200年後、私たちはインフラを利用して新しいタイプの電子トークンを作り出している。
工場はAI工場と呼ばれ、信じられないほど価値のある新しいものを生み出している

人工知能という新しい産業が出現した。
この新しい業界について、いろいろなことを話していきたい。
この新しい業界のためにあなたが作るソフトウェアのタイプについて、この新しいソフトウェアについてあなたがどう考えるか、この新しい業界でのアプリケーションについて、そして次に何があるか、そして私たちは今日からどのように準備を始められるかについてお話しします。
これから何が始まるのか    その前に
コンピュータ・グラフィックス物理学と人工知能の交差点にある
Nvidiaの魂をお見せしたいと思います。
インテリジェンスはすべて、コンピュータの中で交差している。
仮想世界シミュレーションのオムニバース   今日お見せするのは、文字通りすべてだ

今日お見せするのはシミュレーションで、アニメーションではありません。物理学だから美しいのだ    世界は美しい。
ロボット工学によってアニメ化され、人工知能によってアニメ化されている。
その日、それは完全に生成され、完全にシミュレートされ、オムニバースとそのすべてだ
これからお楽しみいただくのは、すべてが自家製という世界初のコンサート
です。ホームビデオをご覧いただきますので、どうぞお座りください。ポイント汎用コンピューティングは力尽きた。
そうすることで、コンピューティングの規模を拡大し、コンピューティングのコス
トを下げ続けることができる。
持続可能でありながら、より多くのコンピューティングを消費し続けることができる アクセラレーション•コンピューティングは、汎用コンピューティングよりも劇的に高速化される

そして、私たちが関与するすべての産業において、その影響は劇的なものである

この業界では、シミュレーションツールを使って製品を作ることは、我々の業界よりも重要なことなのだ。
コンピューティングのコストを下げることではなく、コンピューティングの規模を拡大することなのだ。
我々がデジタル•ツインと呼んでいるもので、基本的に完全にデジタル化されたフル•フィデリティの製品全体をシミュレートする。
そのためには業界全体を加速させる必要がある。
この旅に参加してくれるパートナーたちがいることをお知らせしたい。
エコシステムによって、世界をアクセラレイティド•コンピューティングに移行させることができるのだが、アクセラレイティド•コンピューティングになると、インフラがgpusに統合されるというボーナスがある。
ジェネレーティブAiのためのインフラとまったく同じである。
アニスは、世界有数の企業数社と非常に重要なパートナーシップを結んでいる

私たちは、アンシス•エコシステムを加速させるために彼らと提携しています。
肛門をオムニバースのデジタル•ツインに接続するために、信じられないことがある。
素晴らしいのは、メディアGPUアクセラレーション•システムのインストールベー
スが、世界中のあらゆるクラウド、あらゆるシステムにあるということだ。
そのため、彼らが加速させるアプリケーションは、巨大なインストールベースを持っている。
ユーザーは素晴らしいアプリケーションを手に入れることができ、もちろんシステム•メーカーやCspsは素晴らしい顧客を手に入れることができる。
要求のあらすじ あらすじは、文字通りNVIDIAのものである。

最初のソフトウェア•パートナーである彼らは、私たちの会社の設立初日に現れ、
チップに革命をもたらした。
ハイレベルの設計を持つ業界では、我々はCudaのシノプシスを加速させるつもりだ

コンピュテーショナル•リソグラフィーを加速誰も知らなかった最も重要な

アプリケーションのひとつ
チップを製造するためには、リソグラフィを限界までプッシュする必要があります。Nvidiaは、コンピュテーショナル•リソグラフィを信じられないほど高速化する、ドメイン固有のライブラリを作成しました

本日、Nvidia  kithoのソフトウェア•デファインド(SDS)および

次のステップは、生成的AIを将来の半導体製造に応用することである。
ジオメトリーをさらに進化させるケイデンス
EdaとSDAのツールは不可欠であり、我々はまた、これらの3社の間にケイ
デンスを使用しています シノプシスケイデンスは、我々は基本的に一緒にNvidiaを構築し、我々はcudです
ケイデンスを加速させるために、彼らはまた、NvidiaGPUスーパーコンピューターを構築している。
流体 100倍から1000倍のスケールでのダイナミックシミュレーション
ケイデンス•ミレニアムのスーパーコンピューターは、基本的にリアルタイムで風洞実験を行う。
Nvidiaのgpusは、スーパーコンピュータを構築するソフトウェア会社の中にある。
ケイデンスが、シノプシス•アンシス•ツール•プロバイダーがAIコ•パイロットを提供し、何千何万ものコ•パイロット•アシスタントが支援す る日を想像してみてほしい。
また、ケイデンスのデジタル•ツイン•プラットフォームをオムニバースに接続する予定です。
世界のCAEエダとSDAを加速させることで、私たちは次のような流れを見ている。デジタル•ツインズで私たちの未来を創造し、そのすべてをオムニバースにつなげ
る。
未来のデジタル•ツインのためのシステム規模と規模から多大な恩恵を受けた産業のひとつである。
皆さんもよくご存知のこの大型言語モデルは、基本的にトランスフォーマーの後に作られたものだ。
大規模な言語モデルを驚異的な速度でスケールさせることができた。事実上、半年ごとに倍増しているのだ。
その理由は単純で、もし計算量が2倍になれば、次のようになる。

モデルの大きさが2倍になれば、脳の大きさも2倍になり、それを満たすために必要
な情報も2倍になる。
パラメータ数を2倍にするたびに、トレーニントークン数も適切に増やす必要がある。
最新のオープンAIモデルをサポートするために必要な計算規模は、約1兆8000億パラメータとなる。
そのため、数兆個のパラメータをトレインに使用する必要があった。この2つを掛け合わせると、数兆トークンのオーダーになる。
1秒間に10億回の浮動小数点演算を行う。今すぐCoの計算をしてみよう。

クアドリリオンはPAのようなもので、もしPAフロップGPUがあれば、次のようになる。
300億秒といえば、約1,000年だ。
早くやりたいけど、やる価値はある。
みんなに言われるんだ、何かをするのにどれくらい時間がかかるのかって    。
でも、来週はできるかな。
私たちに必要なのは、より大きなGPUである。
gpusを一緒に使い、もちろんその過程で10個のセンサーコアを発明するなど、さまざまな技術革新を行った。
MVリンクにより、実質的に巨大なGpusを作成し、それらをすべて接続することができる。
メラノックス•インフィニバンドという会社の素晴らしいネットワークを使って、巨大なシステムを作ることができた。
djx1は我々の最初のバージョンだが、これが最後というわけではなく、我々はずっとスーパーコンピューターを作り続けてきた。
2021年にはセリーヌの4500GPUがあった。
そして2023年、我々は世界最大級のAIスーパーコンピューターを構築した

そのために、まずチップを作る必要がある。
システムをネットワークに接続するために必要なすべてのソフトウェアは、以下のように表示されるはずです。
システム全体で動作するソフトウェアを書くことを想像してほしい。
何千ものGpusにまたがっているが、内部には何千もの小さなGpusがある。
gpus数百万個のgpusで、すべてのgpusに仕事を分散させ、バランスをとる。
ワークロードを最大限に活用することで、エネルギー効率を高め、計算時間を短縮
し、コストを抑えることができます。
このような基本的な革新があったからこそ、我々はこ

こまで来れたのだ。
目の前にいる選手たちを見ていると、我々にはまだ長い道のりがあることに気づかされる。
より大きなモデルは、インターネット上のテキストだけでなく、マルチモダリティ
のデータを使ってトレーニングする。
私たちがテレビを見て学ぶように、テキストや画像、グラフや図表を使って訓練する。
腕が壁を通り抜けることはない。

をたくさん見ることで
世界のビデオと世界の多くの言語が組み合わされている。
私たちが学習しようとするとき、想像力を働かせてシミュレーションを行うのと
同じように、合成データを生成するようなものだ。
この基調講演を準備するときに私がしたように、この基調講演がどのような結末を迎えるのか、私はずっとシミュレーションしていた。
私が考えていたようになることを願っている。
この基調講演がどうなるかシミュレーションしているときに、誰かが言ったんだ

パフォーマーは完全にトレッドミルの上で演技をした。
もし10分後に風が吹いたら、何が起こったかわかるだろう。強化学習を使う世代は、頭の中で練習することになる。
その他、生徒と教師のデバターと同じように、これらすべてが私たちのモデルのサイズを大きくすることになる。
データ量が増えれば、さらに大規模な施設を建設しなければならなくなる。
gpus ホッパーは素晴らしいが、もっと大きなものが必要だ。というわけで、みなさん、とてもビッグな選手を紹介
しましょう。
デビッド•ブラックウェル数学にちなんで命名されたGPU 私たちは、それが完璧な黒富豪という名前にぴったり
だと考えました。
Blackwellはチップではない。Blackwellはプラットフォームの名前であり、人々は我々がGpusを作っていると思っている。
ここがそうだ、ここがそうだ......もしそうなら    黒人の心だ
これはブラックウェルという社名ではなく、単なる番号であり、このブラックウェルはその隣に座っている。

今日の生産における世界
これがホッパーだ ホッパーが世界を変えた これがブ
ラックウェルだ 大丈夫だ
ホッパー......君はとてもいい子だ    いい
子だ    いい子だ
2,080億個のトランジスターがある。
2つの染料の間に小さな線があるが、これは2つの染料がこのように接した初めての例である。

チップの2つのダイは1つのチップだと思っていて、その間に10テラ
バイトのデータがある。
ブラックウェルの野望が物理学の限界を超えていると聞かされたとき
、エンジニアは、だからどうした、と言った。
最初のものは、フォーム•フィット•ファンクションと互換性のあるシステムである

ホッパーをすべてスライドさせ、ブラックウェルを押し込む。
ホッパーは世界中に設置されており、その効率は非常に高い。
同じインフラ、同じデザイン、同じパワー、同じ電気、同じサーマルズ•ソフトウェアがそれを後押ししている。
これは現在のhgx用のホッパー•バージョンである。
そしてこれが、もう1つの2つ目のホッパーで、これはプロトタイプの
ボードだ。
紳士淑女の皆様
ポール、そしてこれが完全に機能するボードだ。
億円、2番目の
5回目以降はもっと安くなる。
でも、これはかなり高価なもので、取締役会を立ち上げるためのものなんだ。
それで、これを手に取るんだ。
blackwチップと4つのBlackwellダイがGrace CPUに接続され、Grace CPU
は超高速のチップ間リンクを持っている。
第二に、メモリーが首尾一貫していて、まるでひとつのアプリケーションを一緒に作っている大きな家族のように感じられる。
テラバイトのこれとテラバイトのこれは    しかし、これは奇跡だ。
ここにあるもの......上のMVリンク、下のPCIエクスプレス    どれ
が僕のもので、どれが左のものなんだ?

そのうちのひとつがCPUチップで、もうひとつがチップ間のリンクでも構わない。僕の左側か、君の左側か    僕はそれを整理しようとしていたんだ。

うまくいけば、プラグに接続さ
れることになる。 しかし、まだある。
スペックは素晴らしいが、限界を超えるためには多くの新機能が必要だ。
物理学の限界として、我々は常にもっと多くのXファクターを得たいと考えている。トランスフォーマー•エンジンは、第2世代のトランスフォーマー•エンジンである

動的に自動でスケールを変更する機能がある。数値フォーマットを低いPrecisionに変更する。
人工知能は確率の問題であり、1.7倍はある。
1.7倍
およそ1.4がおよそ別のものになる。
パイプラインの特定の段階で必要とされるプレシジョンとレンジを維持するための数学は非常に重要であり、これは
より小さなALUを設計したという事実    世界はそれほど単純ではない。
何千Gpusもの計算機でそれを使うことができる。何週間も、何週間も、何週間も、何週間も。
そして、この新しいトランスフォーマー•エンジンには第5世代のMVリンクが搭載
され、ホッパーの2倍の速さになった。
しかし、非常に重要なのは、ネットワークに計算機能があることだ。
異なるGPUが一緒に動作している場合、互いに情報を共有し、同期して更新する必要がある。
そのため、部分的なプロダクツを減らしてから、その部分的なプロダクツを再放送しなければならない。
部分的な製品の合計を他のすべての製品に戻す。
そして、これらすべてが同期とコレクティブの領域の一部である。

お互いに非常に高速なリンクを持ち、ネットワーク上で数学ができ
ることで、本質的にさらに増幅することができる。
毎秒1.8テラバイトとはいえ、実質的にはそれ以上であり、ホッパーの何倍にもなる

スーパーコンピューターが何週間も稼動し続けることは、ほぼゼロに等しい。その理由は、同時に働くコンポーネントが非常に多いためである。
そのため、井戸があるたびにチェックポイントを行い、次のように再起動する必要
がある。
しかし、もし弱ったチップや弱ったノートを早期に発見する能力があれば、そのプロセッサーを引退させ、別のプロセッサーに交換することができるだろう。
スーパーコンピューター稼働率を高く維持するために、特に20億ドルを費やして構築したばかりのスーパーコンピューターを使うことは、非常に難しい。
超重要なことなので、私たちは信頼性エンジンであるRasエンジンを搭載し、すべてのゲート、すべてのメモリ•ビットをシステム•テス トで100%自己テストするようにした。
Blackwellのチップとそれに接続されたすべてのメモリで、まるですべてのチップに独自のアドバンスド•テスターを同梱し、CHでチップをテストしているかのようだ。
セキュアなAI.    明らかに、あなたは何億ドルも費やしている
ドルは非常に重要なAIを作り、そのAIの知性をコード化する。
がパラメータにエンコードされている場合、それを失わないようにしたい。
その結果、データを暗号化できるようになった。
そのため、暗号化して送信することができるようになったし、コンピューティングを行う際には、信頼できる環境で行うことができるようになった。
エンジン環境と、最後にデータを出し入れする解凍だ。
そのため、私たちは高速圧縮エンジンを導入し、これらのコンピューターへのデー
タの出し入れを実質的に20倍高速化しました。
これらのコンピューターは非常にパワフルで、多額の投資をしている。

したがって、これらの能力はすべて、ブラックウェルに食事を提
供し、全体として可能な限り忙しくしておくためのものである。
ホッパーはfp8の2.5倍で、チップあたりのトレーニング性能はfp8の2.5 倍です。ALSはfp6という新しいフォーマットも持っているので、計算速度は同じでも帯域幅が増幅されます
モリーを搭載したことで、メモリーに保存できるパラメーターの量は、アンプリファイドfp4の実質2倍になりました。
スループットは推論にとって極めて重要である。

もう一方は、チャットボットとチャットしているとき、チャットボッ
トにレビューや画像作成を依頼するとき、後ろにGPUがあることを思い出してほしい。
トークンの生成    推論と呼ぶ人もいるが、生成と呼ぶほうが適切だ。
携帯電話を手に取り、何かに触れると    いくつかの信号が発信される。
誰かがストーリーを書いたり、誰かが画像を作ったり、あるいは誰かが
録画されたビデオは、事前に録画されたコンテンツが携帯電話にストリーミングされ、再構成される。
レコメンダー•システムに基づき、あなたに情報を提示する方法です。そのコンテンツの大半は検索されない。
コンテクストを理解できない人がいる。
AIは、あなたがどのような理由でこの情報を取得しようとしているのか、その背景を理解している。
エネルギーの節約 ネットワークの帯域幅の節約 時間の無駄の節約は途方もないものになるだろう 未来は生成的だ
これが生成的AIと呼ばれる所以である。
そして、その最も重要な部分のひとつが、コンテンツ•トークンの生成であり、このフォーマットをfp4と呼んでいる。
Genトークン生成の5倍 Hopperの推論能力の5倍で十分なように思えるが、なぜ止めるのか?
その理由をお見せしよう。
このGPUよりもさらに大きなGPUを搭載している。
しかし、その前に、過去8年間でどのように規模を拡大してきたかをお話ししよう。
ムーアの法則の古き良き時代には、2倍だったのを覚えているだろうか

あと2年ある。
コンピューティングの進歩のスピードは非常識であり、まだ十分ではない。
43:47

このチップは信じられない。
エンヴィー•リンク•スイッチと呼んでいる。500億個のトラン
ジスターで、それだけでホッパーとほぼ同じ大きさだ。 このチップは毎秒1.8テラバイトの計算能力を備えている。
すべてのGPUが他のGPUと同時にフルスピードで話すことができる。意味がないことだが、もしそれができるのなら    。
そのための方法を見つけ、費用対効果の高いシステムを構築することができる。すべてのGPUをコヒーレント•リンクで接続することができたら、どんなに素晴ら
しいことだろう。
それらは事実上、1つの巨大なGPUであり、偉大な発明の1つである。
費用対効果を上げるためには、このチップは銅を直接ドライブしなければならない

驚異的な発明で、銅を直接駆動することができるようになった。ような
今、このシステムは
これは1台のDGXで、6年前はかなり重かったが、今では持ち上げるこ
とができた。
私は、Aiと研究者を開くための最初のdjx1を提供した。
写真もインターネットにアップされているし、みんなサインもした。
僕のオフィスまで持ってきてくれたんだ。直筆のサイン入りで、本当に美しいよ。この数字は、0.17ペドフロップスに相当する。
720は、私がオープンAIに提供した最初のもので、0.17でした。0.2に切り上げても何の違いもありませんが、当時は、すごいな、あと30テラフロップスだ、という感じでした。

世界初のワンエグザル•フロップス•マシーン•イン•ワン
このように、1つのラックに2、3台のエキソップ•フロップスAIシステムが搭載されているのだ。

の総帯域幅を上回る毎秒130テラバイトのDGX MVリンクスパインが
シャーシ背面を通っている。
インターネットに接続することで、基本的に1秒以内にすべての人にすべての情報を送ることができる。
もしオプティクスを使わなければならなかったら、トランシーバーやレティムを使わなければならなかっただろう。
トランシーバーとリアーだけで2万ドルかかる。
ワットのトランシーバーだけで、ムーブリンク•スパインを駆動す
るのに2キロワットもかかる。を売ることができる。
60万部以前、誰かが言っていた。
あなた方がGPUを作っていることは知っていますし、私たちもGPUを作っ
ていますが、誰かがGPUと言ったとき、これが私にとってのGPUの姿です

そして3,000ポンド3,000ポンド3,000ポンド    これは
カーボンファイバーの重さのようなものだ。
フェラーリ    それが有益な指標かどうかはわからないけど、でも、み
んなが......そう感じる......そう感じる......そう言われてみれば    そう
感じる    わからないけど
3,000ポンドってなんだ?
象とまではいかないが、これがDGXの姿だ。では、実際にどのような動きをするの
か見てみよう。
GPTモデルの1兆8000億パラメータ•モデルで、2万5000アンプで3~5
ヶ月ほどかかった。
ホッパーを使えば、おそらく8,000Gpusのようなものが必要で、15メガワットを消費するだろう。

メガワットであれば、90日間、3ヶ月ほどかかる。
画期的なAIモデルであり、これは明らかに、「うーん」というほど高価なものではない。
誰もがそう思うだろうが、8,000 8,000Gpusはまだ大金である。
Blackwellを使えば、2,000ドルで済む。
gpus2,000gpus同じ90日だが、これは驚くべき部分である。

だから、15から    そう、それは
そして、それが我々の目標である。
コストとエネルギーは正比例している。
次世代モデルをうまくトレーニングするために必要な計算を、今後も拡大•拡張していくことができるのだ。
これはトレーニングの推論または生成である
NvidiaのGpusがクラウドにある時間の半分くらいは、このところクラウドにあるのだ
ろう。
トークン生成に使われているんだ......コ•パイロットとか、チャットとか    チャ
ットGPTとか    。
このようなさまざまなモデルは、IMと対話したり、IMから画像を生成したりするときに使用される。
ビデオを生成し、タンパク質を生成し、化学物質を生成する。
Bは推論と呼ばれるコンピューティングの範疇にあるが、推論は非常に難しい。大規模な言語モデルにはいくつかの特性がある。
1つのGPUに収まらない    これはExcelが1つのGPUに収まらないことを想像したもの
だ。
GPUは、あなたが日常的に実行しているアプリケーションが1つでは動作しないこと
を知っているし、想像している。
ビデオゲームのようなコンピュータは、1台のコンピュータには収まらない。
ハイパースケール•コンピューティングでは、過去に何度も、多くの人が多くのア
プリケーションを同じコンピューターにインストールした。
突然、この推論アプリケーションでチャットボットとやりとりすることになった。そして、それが未来だ。
これらのチャットボットは何兆ものトークンであり、何兆ものパラメータがあり
、彼らは次のことをしなければならない。

トークンをインタラクティブな速度で生成する......どういう意味だ    3対
トークンというのは......つまり......宇宙    最後のフロンティアだ
これは80トークンのアドベンチャーなんだ。いい例えを選んでいる。
スター•トレックも見たことないし、そうかもしれない。
だから、トークンを生成しようとしているんだ。トークンとやりとりしていると
きに、トークンができるだけ早く戻ってくることを望んでいるジェネレーション•トークンの能力は本当に重要だ。

麻痺させなければならない
このモデルの作業を多くのGPUにまたがって行うことで、複数のGPUを使用することができる。
一方ではスループットを求める。
を生成するトークンあたりの全体的なコストは、スループットによって決まる。サービスを提供するために必要なコストである。
これはサービス品質と関係している。
我々は、これらの異なるGpusのすべてに仕事を分散させる方法を見つけなければならない。
その両方を達成できるような方法で、検索探索空間が膨大であることがわかった

y軸はデータセンターのスループットで、x軸は1秒あたりのトークンである。
は、インタラクティビティを非常に高めたい場合に最適である。
データセンターあたりの1秒あたりのトークンを非常に多くしたい場合は、右上の
方が最適です。
そのようなことをするのは非常に難しい。
XY座標の交点 XY座標の交点 XY座標の交点 XY座標の交点 XY座標の交点 XY座標の交点 XY座標の交点 XY座標の交点 XY座標の交点
ソフトウェアの再分割は、最適化ソリューションが必要であり、テンソル並列エキスパート並列パイプライン並列を使うか、データ並列を使うかを考え、この巨大なモデルを分散させなければならない。
これらのGの異なるGPUをすべて搭載し、必要なパフォーマンスを維持する。
もしNVIDIAGPUプログラマブルでなかったら、探査スペースは不可能だっただろう。

このようなリッチな生態系があるからこそ、我々はこの宇宙を探索し
、緑の屋根のラインを見つけることができる。
エキスパートのパラレルは8本、データのパラレルは4本である。 専門家たちは、そのソフトウエアのコンフィギュレーションやデ ィストリビューションに並行して、さまざまな異なるランタイム を作り出した。
これは1つのモデルに過ぎないし、これも1つのモデルに過ぎない。

コンピュータの構成は、世界中で作成されているすべてのモデルと、すべての異な
るウムを想像してみてください。
このように、各システムがどのような構成になっているのか、また、どのようなシステム構成になっているのかを理解することで、今後どのようなシステム構成になっていくのかを理解することができます。
基礎編 ブラックウェルの推論を比較してみよう
兆個のパラメーターを持つ生成AIのために設計されたシステムを作
ったのだから。
実際にはホッパーの約30倍である。
チャドGPTのような大規模な言語モデルの場合、青い線はホッパーです。
ホッパーのアーキテクチャーをより大きなチップにし、最新の    つまり最大
の......毎秒10テラバイトの    2つのチップを接続したんだ。
この2080億の巨大なパラメーター•チップを手に入れたとき、他に何も変化がなかったら、どうだっただろうか。
そしてそれが紫色のラインなのだが、それほど素晴らしいものではなかった。そして非常に重要なのがMVリンクスイッチだ。
これらのGpusは、彼らが結果を出すたびに、部分的な製品を共有しなければならな
い。
mvlinkスイッチの通信速度は、過去に最速のネットワークを使ったときの10倍近い速さだ。
将来、データセンターは、先ほど述べたように、AIファクトリーとして考えられるようになるだろう。AIファクトリーの人生の目標は、収益を上げることであり、この場合、この施設でインテリジェンスを生み出すことではない。
交流発電機のように電気を発生させるが、最後の産業革命の時代
そして、この産業革命は知能の生成であり、この能力は超超重要である。

ブラックウェルの興奮は本当に桁外れだ。
1年半前、2年前だったと思うが、ホッパーを市場に投入し始めたのはその2年前だった。
2人のCSPが昼食会に参加してくれた。そして、我々は2人の顧客を獲得した。
もちろん、さまざまなコンフィギュレーションがある。

ホッパー•フォーム•ファクターはアップグレードが容易である。
mvlink72で接続された1つのラック全体がそのバージョンである。
現在、多くのCSPがさまざまなモダリティで素晴らしい仕事をしている。ソブリンAISとodms地域雲
世界中のTelosがBlackwellと契約を結ぶ
このBlackwell Blackwellは、最も成功した製品発表になるだろう。私たちの歴史の中で、その姿を見るのが待ちきれない。
AWSはBlackwellの準備を進めており、セキュアなAIを搭載した初のGPUを開発し
ようとしている。
彼らは今、222のフロップスシステムを構築している。
今、デジタルツインが、あのクラスターがすべて降りてきているのを見ただろうか

私たちが建設しているもののデジタル•ツインであるアートは、私たちが行っているインフラストラクチャー以外に、これほど大きなものになるのです
AWSとともに、我々はCudaでスタッグメーカーのAIを加速している。我々はCudaでベッドロックのAIを加速している。
ロボティクスは、Nvidia OmniverseとIsaac Simを使用して私たちと協力しています。AWS HealthにはNvidia Healthが統合されているため、AWSアクセラレーテッド•コンピューティングに力を入れています

私たちは、そのすべてにわたって稼働するジェンマ•モデルを発表した。
gcpの側面として、我々はデータ処理のためのデータ処理エンジンを高速化している

ロボット工学ではAiとmojokoと協力している。
ラクルはNvidia dgxの素晴らしいパートナーです。
クラウドと我々はまた、オラクルの多くの企業にとって本当に重要なことを加速さ

せるために協力している。
データベース   マイクロソフトは加速し、ブラックウェルに向けて準備中
マイクロソフトNvidiaは広範なパートナーシップを結んでおり、Cudaを高速化する
ことで、あらゆるサービスを加速させています。
Microsoft Azureに含まれるAIサービスは、明らかにチャットをするときに利用できる

Nvidiaが推論とトークン生成を裏で行っている可能性が非常に高い。

我々が作り、彼らが作った
最大のNvidia  infinibandスーパーコンピュータは、基本的に時間のデジタル•ツイン
、あるいは時間の物理的ツインである。
NvidiaのエコシステムをAzureへ Nvidia djx cloud to Azure uh
Nvidia OmniverseはAzureでホストされるようになりました Nvidia HealthcareはAzureで
あり、そのすべてが深く統合され、深く浸透しています。
マイクロソフトのファブリックに関連して、業界全体が次のような準備を始めている。
Blackwellは、これからお見せするBlackwellのほとんどのシーンは、
Blackwellのフル•フィデリティ•デザインである。企業は非常に複雑なものを初めて完璧に作り上げる。
デジタル•ツインで構築されたコンピュータを作ることより、ウィストロンがどんなものかをお見せしよう。
エヌビディア•アクセラレーテッド•コンピューティングの需要に応えるために、 私たちは次のようなことを行っています。
大手製造パートナーは、カスタム•ソフトウェアを使用して、Nvidiaのdgxおよび
hgx工場のデジタル•ツインを構築している。
オムニバースのsdksとapisで開発された最新ファクトリーのwraw
デジタルツインによって、マルチアドとプロセスシミュレーションデータを仮想
的に統合し、統一されたビューを実現しました。
この物理的に正確なデジタル環境でレイアウトをテストし、最適化することで、作業員の効率は氷のように向上した。
建設中の51%は、オムニバースのデジタル•ツインを使用して、物理的な建築物がデジタル•プランと一致していることを確認した。
このような齟齬を早期に発見することで、コストのかかる変更注文を回避することができた。
デジタル•ツインのおかげで、ワイオン•ファクトリーのオンライン化は、従来の

5ヶ月から2ヶ月半という短い期間で実現した。
オムニバースのデジタルツインは、ウィドローが新しいプロセスに対応するために新しいレイアウトを迅速にテストしたり、オペレーションを改善するのに役立ちます

既存のスペースを活用し、生産ラインのすべての機械からライブのiot データを使用してリアルタイムでオペレーションを監視することで、最終的にワイオンは以下を実現しました。
Nvidia  AiとOmniverseにより、エンド•ツー•エンドのサイクルタイムを50%短縮し
、不良率を40%低減 nvidiaのグローバル•エコシステム•パートナーは、AIを活用したデジタル化を加速する新時代を築いています。
将来的には、まずデジタルですべてを製造するようになるだろう。

そして、それを物理的に製造するんだ。みんなに聞かれるんだ。
この信じられないようなアイデアに乗った。
二人目のみんな、あの瞬間はそうなるはずだったんだ    。
このリハーサルは、20 12年のコンタクトから始まった。
アレックス•ネットは、このコンピューターに猫を入れたら
、出てきたコンピューターに猫と表示された。
100万個の数字があれば、100万個の数字がある。
RGBの3チャンネル、この数値は誰の目から見ても意味がない。
次元を100万次元にすると、3つの文字、1つのベクトル、1つの数字に変換され、一般化される。
猫の正面と背面があり、これを見て信じられないと言うだろう。 その結果、すべての猫を認識することができるようになり、それがどのように体系化されているのかがわかった。
だから、これはまったく新しいものだと想像している。
そして今日、ご存知のように、c aと入力することができるようになった。
出てきたのは猫だった。
信じられない    そうだ、3つの文字から100万ピクセルピクセル
生成して、それを作ったなんて    。
それが奇跡であり、文字通り10年後の今がある。
年後、私たちは文字を認識し、画像を認識し、映像や音や画像を認識するように
なった。
テキストの意味を理解し、それがあなたとチャットできる理由です。テキストを理解し、その英語を理解した。
ピクセルを認識し、ピクセルを理解する。

これらを理解することができれば、言語条件イメージを持つことができ、あらゆる
種類の興味深いものを生み出すことができる。
デジタル化したことで、他に何を理解することができるのか    私たちがなぜテ
キストや画像から始めたかというと、それは私たちが
しかし、それ以外に何をデジタル化したかというと    多くのものをデジタル化した

タンパク質と遺伝子と
脳波はデジタル化できるものなら何でもいい。
そこからいくつかのパターンを学び、パターンを学ぶことができれば、その意味を
理解することができる。
その意味を理解すれば、それを生成することもできるかもしれない。
さて、他に何を生み出せるだろう......他に何を学べるだろう    そうですね。
私たちは気候について学びたい。私たちは異常気象について学びたい
。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。私たちは異常気象について学びたい。
1500億ドルは世界の一部に集中している。
そしてもちろん、世界の一部の人々にとっては、我々は適応する必要があり、何が起こるかを知る必要がある。
Civと呼ばれる驚異的な発明は、極めて高い解像度で天候を予測するためにジェネレーティブAIを使用する能力を持っている。
AIを活用した天気予報は、地球の気候変動を予測する。
台湾に甚大な被害をもたらした超大型台風12号のような激しい暴風雨をより正確に
予測し、追跡することができる。
現在のAI予測モデルは、嵐の進路を正確に予測することができる。
しかし、解像度が25kmに制限されているため、重要なディテールを見逃す可能性がある。
cordiは、高解像度のレーダーに同化されたWarfの天気予報をもとに学習された、画

期的な新しい生成AIモデルである。
また、ChanthuのようなCordiの極端な事象を用いたAir 5の再解析データは
、1,000倍の速度と3,000倍の解像度で、25kmから2kmの解像度に超解像することができる。
nvidiaのスピードと精度を組み合わせることで、従来の気象モデルの2倍のエネルギー効率を実現。
天気予報モデルのフォーキャスト•ネットやコーディのような生成AIモデルは、何百、何千ものモデルを探索することができる。
キロスケールの地域天気予報により、最も悪い影響と最も起こりそうな影響を明確に把握することができる。
この豊富な情報は、人命や物的損害を最小限に抑えるのに役立ちます。
台湾向けだが、まもなくin viia Earth 2の一部としてジェネレイティブ•スーパー•サンプリングが利用可能になる。

推論サービス多くの地域で
グローブ•ザ•ウェザー•カンパニーは、世界の気象予報の信頼を得ており、私た
ちはこの信頼に応えるべく、共に加速していきます。
しかし、彼らの気象シミュレーションは、シミュレーションの最初の原則的なベースとなっている。
また、地球をコーディに統合することで、企業や国の地域的な高収益を支援するつ
もりだ。
もし、あなたが天気予報について知りたいことがあるのなら    。
お天気会社本当にエキサイティング本当にエキサイティングな仕事Nvidiaヘルスケア私たちが15年前に始めたことで、私たちはこの分野に大きな期待を寄せている。
メディカル•イメージングであれ、遺伝子配列決定であれ、計算化学であれ、
Nvidia

我々はこの分野で非常に多くの仕事をしてきた。
画像や音声の生成に使われているAIモデルを想像してみてほしい。
なぜなら、遺伝子やタンパク質、アミノ酸のデジタル化をすべて理解していたからだ。
の言葉を理解するために、機械学習が導入されたのだ。
生命の言語を理解する能力。もちろん、我々はアルファフォルドでその最初の証拠を見たが、これは本当に驚くべきことだ。
電子顕微鏡X線結晶構造解析は、これらの異なる技術を駆使して、わずか1年足らずの間に20万個のタンパク質を再構築した。
基本的に、これまでに配列が決定されたすべての生物のすべてのタンパク質は、これは完全に革命的だ。
このようなモデルは、人々が作るには信じられないほど使いにくいものだ。世界中の研究者のために作るのだ。

私たちが作るモデルは他にもたくさんある。
新薬のバーチャルスクリーニングは計算不可能な問題である。
既存の技術では、何十億もの化合物をスキャンすることしかできず、何千もの化合物を何日もかけてスキャンする必要がある。

標準コンピュートノード
新薬候補を特定するためのNvidia biion Nemo Nimsが可能にすること
αフォールド分子を用いたタンパク質構造予測のためのNimsを用いた新しい生成的ス
クリーニングパラダイム
MIMで生成し、diff dockでドッキングする。
MIMはカスタム•アプリケーションに接続し、生成的な分子設計を行うことができ
る。
これらのアプリケーションは、biion Nemoマイクロサービスを使用して定義することも、ゼロから構築することもできます。
物理学に基づくシミュレーションは、分子がターゲットタンパク質に結合する能力を最適化する一方で、他の要素についても最適化する。
に結合する高品質の薬剤様分子を生成する。
合成可能であり、医薬品開発の成功確率を高める。ネモはニムスで創薬の新たなパラダイムを実現する
のような強力な創薬ワークフローを構築するために組み合わせることができるオン
デマンドマイクロサービスを提供します。
バイオNimsは、研究者や開発者が計算薬物を再発明するのに役立っている。
デザイン Nvidia M MIM MIMコードの差分 他のモデルの束 他のモデルの束 コンピューター•ビジョンのモデルロボット工学のモデル さらには
もちろん、本当に素晴らしいオープンソース言語モデルもある。これらのモデルは画期的だが、企業にとっては使いにくい。
それをどのようにパッケージ化し、ワークフローに組み込むか。
推論が並外れた計算問題であるとすれば、これらのモデルのひとつひとつについてどのように最適化を行い、それを実行するために必要なコンピューティング•スタックをどのように組み合わせればよいのだろうか?

スーパーコンピューターを使えば、社内でモデルを実行することができま
す。そこで私たちは素晴らしいアイデアを思いつきました。
デジタルボックスでは、これをコンテナと呼び、Nvidia推論マイクロサービスをNimと呼んでいる。Nimとは何か説明しよう。
nvidiaのインストールベースは非常に大きく、その中身は以下の通りだ。
このような訓練済みの最先端のオープンソースモデルがあるなんて信じられない。

オープンソース
Nvidia mullのように私たちが作成したものであることもあります。
Cudaの依存関係 CNNの正しいバージョン テンソルRT llm 複数のGPUに分散 Tredと推論サーバーはすべて完全なもの
シングルGPUかマルチGPUか、マルチノードのGPUかによって最適化される。そのために最適化され、使いやすいAPIとつながっている。
APIとはAIのことであり、APIとは単に会話するためのインターフェースである。将来、本当にシンプルなAPIを持つソフトウェアが登場するだろう。
ソフトウェアは最適化され、パッケージ化される。
ウェブサイトからダウンロードして持ち運ぶこともできるし、どのクラウドでも実
行できる。
nvidia.comではNvidiaと呼んでいます。
推論マイクロサービスだが、社内ではニムスと呼んでいる。
想像してみてほしいんだが、いつかチャットボットのようなものが登場して、その
チャットボットが
ニムの中に入って、チャットの集まりを作るんだ。
ボット、そしてそれがいつの日かソフトウェアが構築される方法だ。
ゼロから書いたり、パイソンのコードを大量に書いたりすることはまずないだろう

AISのチームを結成すれば、おそらくスーパーAIが誕生するだろう。そのミッションの一部を実行プランに落とし込む。
プランを別のNimに渡すこともできるし、そのNimはSAPの言語である
アバップを理解し、サービスを理解するかもしれない。
プラットフォームから何らかの情報を取得し、その結果を別のニムに渡して、そのニムが自分のプラットフォームから情報を取得する。
多分、最適化ソフトウェアで、組み合わせ最適化アルゴリズムだろう。

基本的な電卓を使うかもしれないし、パンダで数値解析をして、その答えが返ってきて、他の人たちの答えと合わせて、これが正しい答えだ、と提示される。

どのような答えを出すべきか、どのような正解を出すべきか、そしてそれをあ
なたに提示する。
請求プランや予測、あるいは顧客に対するアラート、あるいは
バグ•データベースであれ何であれ、これらのニムを使ってそれを組み立てることができる。
Nimsはパッケージ化され、あなたのシステムで動作するように準備されています。クラウド上のデータセンターでビデオGPUを使用することで、ニムスはチームとし
て協力し、驚くべきことを成し遂げるだろう。
私たちは、これは素晴らしいアイデアだと思い、それを実行に移すことにしました

ニムスは社内のいたるところで稼働しており、あちこちでチャットボットが作られ
ている。
チャットボットはもちろん、チップの設計者であるチャットボットです。私たちがチップの製造に多くの関心を持っていることに驚かないかもしれませんが、私たちはチャットボットAIを作りたいと思っています。
エンジニアとの共同設計者である共同パイロットのおかげで、私たちはラマラマ2号機を手に入れることができた。
CTLとは内部プログラムであり、内部独自の言語を持っていることがわかったが、CTLは組み合わせタイミングロジックだと考えていた。
そのため、従来のCTLの知識が記述されているが、それは我々にとってはあまり役に立たない。
これは従業員のオンボーディングと何ら変わりはない。
とは、NvidiaにおけるCTLのことで、CTLはご覧の通り、CTLの略です。
コンピュート•トレース•ライブラリは、我々がコンピュート•サイクルを常にトレースしていたことを証明している。

違うか
チップ設計者の生産性を向上させることができます。
Nemoマイクロサービスと呼ばれるサービスを利用すれば、カスタマイズが可能です

このAIにデータを教えることができる。
その答えを評価し、他の例と比較してそのパフォーマンスを評価する。今、マイクロサービスには3つの要素がある。

第一の柱は、もちろんAI技術の発明である。
もうひとつは、最初にAIモデルを修正するためのツールを作ることだ。
2つ目はAI技術を持つこと、2つ目はそれを修正する手助けをすること、そして3つ目はそれを微調整するためのインフラです。
dgxクラウドと呼ばれる私たちのインフラストラクチャーにデプロイすることもできますし、次のようにデプロイすることもできます。
プレムは、一度開発すればどこにでも配備することができる。
AIファウンダリーとして、私たちはtsmcと同じことを、あなたや業界のために行います。
だから、チップを製造しているTSMCに、彼らが製造している大きなアイデアを持っ
て行って、それを受け取ったんだ。
AIファウンドリーとERSの3本柱は、NIMS Nemoマイクロサービスとdgxである。
クラウド もうひとつ、ニムに教えることができるのは、あなたが所有する情報を理解することだ。
社内のデータの大部分はクラウド上にあるのではなく、社内にある。そのデータを使って、私たちが学んだようにその意味を学びたい。
今お話ししたような、ほとんどすべてのものの意味を学び、その知識をインデックスに追加する。
ベクトル•データベースと呼ばれる新しいタイプのデータベースで、基本的に構造化データまたは非構造化データを利用する。
その意味を学び、その意味をエンコードする。
将来、AIデータベースを作成したら、そのAIと話すことができる。
マルチモダリティのデータを作成し、その良い例がPDFだ。
PDFを持ち出す。
猫のピクセルエンコードするように、あなたの会社にとって重要なピクセルエンコードすることができます。

そして、それが "word cat "となり、PDFのすべてをエンコードすることができる。
ベクター•データベースはあなたの会社の専有情報となり、いったんその専有情報を手に入れれば、それにチャットをすることができる。
スマートなデータベースで、データとチャットするだけで、どれだけ楽しくなるか

私たちのソフトウェア•チームは、バグ•データベースとチャットしているだけです。
昨晩はたくさんのバグがあった    何か進展はあっただろうか?
データベースセラピーが必要なので、別のチャットボットを用意しました。
ニモ•レトリーバーと呼んでいるのは、最終的にニモを回収するのが仕事だからだ

情報を可能な限り素早く取得し、「ねえ、この情報を取り出して」と話しかけるだけでいい。
ニモ•レトリーバーと呼んでいる。
あなたはこれらすべてのものを創造し、私たちはこれらすべての異なるニムを持っている......デジタル人間のニムさえ持っている    私はレイチェルだ
あなたのAIケアマネジャーは、本当に短いです。
でも、お見せしたいビデオがたくさんあったので、これはカットせざるを得なかっ
た。
彼女はデジタル•ヒューマン•ニムで、あなたは今、こう話した。
彼女はこの場合、ヒポクラテスaiのヘルスケアのための大規模な言語モデルとつな
がっている。
彼女はヘルスケアのことに関してとても頭がいい。
私のドワイト、私のソフトウェア•エンジニアリング担当副社長がチャットボット
とバグのデータベースについて話した後、あなたはここに来る。
こっちでダイアンと話して、それで......ダイアンは    まったく生き生きしている。
AIと彼女はデジタルヒューマンだ。
エンタープライズIT業界は金鉱の上に座っている。
何年もかけて作られた素晴らしいツールは、多くのデータを蓄積している。その金鉱を利用し、彼らをコ•パイロットに変えれば、コ•パイロ

トは我々の活動を助けてくれるだろう。
人々が使用する貴重なツールは、共同パイロットのための金鉱の上に座っている。
NvidiaのAIファウンダリーは、世界有数の企業数社と協業しています。サップは世界のグローバル•コマースの87%を生み出している。基本的に、世界はサップで動いているのだ。

世界のフォーチュン500に名を連ねる企業は、従業員や顧客サービス業務をNvidia
サービス上で行っている。
AIファウンドリー、仮想を支援するサービスを構築へ
アシスタンス•コヒーシティは世界中のデータをバックアップしており、彼らは何
百エクソバイトものデータの金鉱の上に座っている。
10,000社 Nvidia AI Foundryは、Gaia生成AIエージェントの構築を支援しています。 snowflakeは、世界中のデジタル倉庫をクラウドに保管し、1日30億件以上のクエリを提供しています。
10,000社の企業顧客 snowflakeNvidia AI Foundryと協力して、以下のものを構築しています。
Nvidia NemoとNims net appppとの共同パイロット 世界のファイルの約半分はPrem on net appppに保存されている Nvidia AI Foundryは、Nvidia NemoとNims net appppとの共同パイロットを支援しています。
NvidiaのneemoとVectorのデータベースとリトリーバーのようなチャットボットとコパイロットを構築する。
ニムス、そしてデルとは素晴らしいパートナーシップを築いている。
チャットボットやジェネレーティブAIを構築し、それを実行する準備ができたら
、AIが必要になる。
デルほど大規模なエンタープライズ向けエンド•ツー•エンド•システムを構築できる企業はない。
AI工場を建設する必要があり、マイケルがここにいることがわかった。 ロボット工学の次の波について話そう。ロボット工学の次の波、物理的AI についてだ。
コンピュータのデータが1台のコンピュータに入ってくる。を模倣するのである。

もちろん、すべてのパターンを研究し、他のすべての例を研究することによって
、あなたを模倣する。
しかし、一旦コンテキストを理解すれば、基本的にあなたの真似をする。それをdgxのようなシステムに入れて、大きな言語モデルに圧縮する。
何兆、何兆というパラメータが何億、何十億というトークンになり、何十億という
パラメータになる。
この何十億ものパラメーターが、あなたのAIにうまく作用するようになるのです。物理的な世界では、3台のコンピューターが必要になる。最初のコンピューターはこれまでと同じコンピューターで、AIコンピューターがビデオを見たり、合成  データを処理したりすることになる。

AISは私たちが何が起きているのかを理解し、それに適応しようとす
るのを見ている。
このようなファウンデーション•モデルで一般化することができるからだ。ロボットは物理的な世界でもかなり一般的なパフォーマンスができる。
チャットGPTを除く大規模言語モデルで起こったことを、本質的に非常にシンプル
な言葉で説明した。
私たちは、ロボット工学のためのエンド•ツー•エンド•システムを構築してきました。
AIシステムdgxがある。
agxは自律システム用と呼ばれる世界初のロボティクス•プロセッサーだ。
君たちが作っているのは "S "だから1チップで、非常に低消費電力に設計されているが、高速用に設計されている。
センサー処理とAiのおかげで、トランスフォーマーをクルマで走らせたい、あるいは
トランスフォーマーを、動くものなら何でもいい    そんなあなたにぴったりの
コンピューターがある。
プロセッサーが必要で、その中間には別のコンピューターが必要だ。ロボットの強化学習による人間へのフィードバックとは何か?
それは強化学習であり、物理的フィードバックであり、ロボットの位置合わせの方
法であり、ロボットの位置合わせの方法である。
ロボットは、このような関節運動能力や操作能力を学習するにつれて、次のようなことができるようになることを知っている。
物理法則に正しく適応するためには、シミュレーションが必要なのだ。このエンジンは、ロボットのためにデジタルで世界を表現する。
その仮想世界をオムニバースと呼んでいる。
Omniverseを実行するコンピュータはovxと呼ばれ、ovxとコンピュータ自

体はAzureクラウドでホストされている。基本的に、我々はこれら3つの
ものを構築し、その上にこれら3つのシステムを構築した。
これからお見せするのは、ちょっと非常識な例ですが、明日にとても近いものです。このロボット工学ビルは倉庫と呼ばれている。

いくつかの
自律システムの一部は人間と呼ばれるようになり、自律システムの一部は人間と呼
ばれるようになる。
システムはフォークリフトと呼ばれるようになり、これらの自律システムはもちろん相互に作用し合うことになる。
このウェアハウスは自律的に、そしてこのウェアハウスによって見過ごされることなく、皆を危険から遠ざける。
倉庫は基本的に航空管制官であり、何かが起こるのを察知するたびに、その方向を変える。
トラフィックトラフィック、そしてロボットや人々に新しいウェイ•ポイントを 与えることで、彼らは何をすべきかを正確に知ることができる。
この倉庫を利用するために、このビルを訪れることもできる。例えば、今日の気分はどうだい?
基本的に、今説明したシステムはオムニバースのクラウドを持っています。
重工業の未来は、デジタル•ツインとして始まり、AIエージェントがロボット労働者やインフラを支援する。
複雑な産業空間における予測不可能な出来事を、まず高度なデジタル技術で構築し
、評価する。
このオムニバースの10万フィート倉庫のデジタル•ツインは、Nvidiaのデジタル•ワーカーを統合したシミュレーション環境として稼動している。
アイザックのレセプターは、100台の天井取り付け型カメラのシミュレーションから、倉庫全体の集中アクティビティ•マップをスタックします。
Nvidia MetropolisとNvidia KoopソフトウェアによるAMRルートプランニングを使用

この物理的に正確なシミュレートされた環境でAIエージェントをループテストす

ることで、次のことが可能になる。
現実世界の予測不可能な事態に、システムがどのように適応するかを洗練させる。
Nvidia Metropolisはリアルタイムで占有マップを更新し、koptに送信する。
は、ジェネレーティブAIを搭載したメトロポリス•ビジョンにより、コーナーを見渡し、ミッションの効率を向上させることができる。
ファウンデーションモデルのオペレータは、自然言語を使って質問することもできます。
ビジュアルモデルは微妙な活動を理解し、すべてのオペレーションを改善するため
の洞察を即座に提供することができます。
センサー•データはシミュレーションで作成され、Nvidiaの推論マイクロサービスや、以下のようなリアルタイムAIに渡される。

ニムス、そしてAIが物理的なツインに配備される準備が整ったとき、私たちは大都
市とリアル•ウェアハウスを結ぶ。
デジタル•ツインとAIの両方を継続的に改善する能力を備えた、本物のセンサーへのアイザック•ニムス
モデルたちは信じられないようなことをやっている。だから、未来の施設を忘れないでほしい
倉庫工場の建設はソフトウェアで定義される。ソフトウェアをテストし、倉庫を建設する。
デジタル•ツインにおける最適化システム    ロボットはどうなんだ?
そのため、将来のCICDでソフトウェアを統合する方法には、次のようなものがある

ロボットシステムの未来は、デジタル•ツインとともにある。我々はオムニバースをより簡単にアクセスできるようにし、基本的にオムニバースのクラウド•アピを4つ作るつもりだ。
シンプルなAPIとチャネルで、アプリケーションを接続することができます。オムニバースの未来は美しくシンプルになる。
デジタル•ツイン機能によって、我々はOMバージョンをAIに変え、それをUSDチャット機能と統合した。
人間とオムニバースの言語は普遍的な情景描写であり、その言語はかなり複雑だ。
英語で話しかければ、直接米ドルが生成され、英語で返答してくれる。米ドルだが、英語で会話している。
世界は言語において意味的に符号化され、シーンにおいて意味的に符号化される。
特定のオブジェクトや特定の条件、特定のシナリオを指定すると、そのシナリオを検索してくれる。
3Dでデザインすることもできるし、3Dでシミュレーションすることもできる。

AIを使って3Dで何かを生成する。
シーマンシーマンズは、世界最大の産業エンジニアリングおよびオペレーション会社である。
重工業は、そのような産業スペースのさまざまな企業のひとつである。

その最大のフロンティアであり、真のインパクトを与えるために必要な技術をよう
やく手に入れたのだ
seensは産業用メタバースを構築しており、本日、我々はS eamansがクラウン ジュエル•アクセラレータからNvidia Omniverseへ    seensのテクノロジーは、すべ
ての人のために日々変化しています。
Nvidia AiとOmniverse Technologiesをteam Center Xに統合することで、現実とデジタルの世界をより近づけることができます。
レンダリングから工業規模の設計•製造プロジェクトまで。
持続可能な船舶製造のマーケットリーダーである同社は、アンモニアと水素のパワ
ーチップを製造している。
Omniverseのapis team Center Xを使用すると、HD yundaiのような企業は、これらの膨大なエンジニアリングデータセットを統合してインタラクティブに視覚化し、ジェネレーティブAIを統合して3Dオブジェ クトを生成したりすることができます。
HDRの背景には、彼らのプロジェクトの背景を見ることができます。その結果、超直感的な写真ベースの物理ベースのデジタルツインが生まれ、無駄やエラーを排除して納品することができます。
コストと時間の大幅な節約になる。
seens anexやStar CCM Plusのようなアクセラレーター•ツールや、同じシーンで一緒に好きなデバイスに取り組んでいるチームの垣根を越えて、これはほんの始まりに過ぎない。
Nvidiaと協力することで、加速されたコンピューティング•ジェネレーティブAiとOmniverseの統合をショーン全体で実現します。
アクセラレータ
ポートフォリオ プロフェッショナル プロフェッショナル プロフェッ

ショナル 声優 声優 声優の のの のローランド•ブッシュローランド
•ブッシュローランド•ブッシュローランド•ブッシュは私の親友 であり、seensのCEOである。
設計からエンジニアリング、製造計画までのエコシステム
デジタル•ツイン•オペレーションに至るまで、いったんすべてを結びつければ、
その量は計り知れない。
生産性が向上し、突然、皆が同じ土俵で仕事をするようになるのは本当に素晴らしいことだ。
データを交換したり、データを変換したりする必要はない。
デザイン部門からアート部門、建築部門に至るまで、同じ真実を基に仕事をして
いる。
エンジニアリング、そしてマーケティング部門に至るまで、すべての部門がどのように機能しているのかを見てみよう。

日産は統合した
オムニバースをワークフローに取り入れることができるのは、これらの素晴らしい
ツールや開発者たちによって接続されているからだ。
私たちと一緒に仕事をしている人たちは、不信感を抱いている。 オムニバースのアニメではなかったが、今日、オムニバースのク
ラウドストリーミングがThe Vision Proに対応したことを発表する

僕が車から降りようとしたとき、バーチャルなドアのまわりを歩いていたのがとても不思議だった。
オムニバースに接続されたビジョン•プロは、実に素晴らしい。
これらのCADツールやさまざまな設計ツールが統合され、接続されるようになった
からだ。
Omniverseを使えば、このようなワークフローを実現することができる。その方が安全で、より便利であり、最も大きなもののひとつである。
オートモーティブは、上から下へとロボット•スタックを構築していく。しかし、自動運転車の場合は、自動運転アプリケーションを含む。
今年か来年の初めにはメルセデスに出荷し、その後すぐにJLRに出荷する予定だ

自律型ロボットシステムはソフトウェアで定義されるため、多くの作業を必要とする
コンピュータ•ビジョンは、明らかに人工知能が制御し、あらゆる種類の非常に複
雑な計画を立てている。
しかし、我々はスタック全体を構築している。
私たちはすべての自動車産業に対して、スタック全体をオープンにしています。
一つの産業について、我々はそれを理解するために、できる限り多くのことを構築しようと努めている。

世界で唯一のフル機能セーブ•アズールド•システムである当コンピュータだけを
購入されたい方も、当コンピュータにアクセスしてください。この機能的で安全かつ高品質なAIを走らせることができる。
コンピュータやその上のオペレーティング•システム、あるいはもちろん我々のデータ•センターもそうだ。
基本的に、世界中のすべてのAV会社で、どのように楽しんでいただいてもかまいま
せん。
世界最大のEV企業であるBYD社が、トランスフォーマー•エンジン用に設計された次世代AVコンピューター「Thor(トール)」を採用することを発表した。

皆さんはおそらくご存じないだろうが、私たちは100万人以上のロボット開発者を抱
えており、ジェットソンを開発したのだ。
ロボット•コンピューターには誇りを持っている。
それができるのは、100%クーダと互換性があるからだ。
このリッチ•エコシステムを維持し、次のような互換性を持たせることができるのです。
あなたが私たちからアクセスするすべてのものは、私たちがこの小さな小さなコンピュータに信じられないほどの能力のすべてをもたらすことができます。
我々はJetsonをロボットコンピュータと呼んでいる。我々はまた、今日、この信じられないほど先進的な新しいSDKを発表する。
今日のボットはあらかじめプログラムされており、地上のデジタルレールに従うか
、あるいはそうなっている。
4月のタグに続くものだが、将来的には認知されるようになるだろう。A地点からB地点に行きたいと言えば、簡単にプログラムできる。
そのため、ウェイポイントをプログラムするだけで、ルート全体を把握することができる。
冒頭の倉庫でお見せしたように、環境全体をプログラムし直すことができる。
プリプログラムされたAGVでは、もしボックスが倒れれば、それはできない。
アイザックパーパーチャーのおかげで、信じられないような最先端のビジョンオ
ドメトリー3Dが実現した。
その理由は、3D再構築の奥行き知覚に加え、3D再構築の奥行き知覚を実現するためだ。
世界で起きていることを監視するための2つのモダリティ アイザックパーセプター 今日最も使われているロボットは、マニピュレーター製造アームで、それらはまた、あらかじめプログラムされている コンピュータービジョンアルゴリズム AIアルゴリズム

幾何学的形状を認識する制御と経路計画アルゴリズムは、非常に計算量が多い。
このクーダ•アクセラレーションは、ジオメトリを意識した世界初のクーダ•アクセラレーション•モーション•プランナーである。
目の前に何かがあると、新しいプランを考え出し、それを中心に表現する。
3Dオブジェクトのポーズ推定には、2Dのポーズだけでなく、3D
のポーズも必要だ。
グリップ基盤のポーズとUMアーティキュレーションアルゴリズムは、現在、以下のようになっている。

私たちはアイザック•マニピュレーターと呼んでいて、NVIDIAのコンピ
ューターで動くんだ。私たちは、次世代のロボット工学で本当に素晴らしい仕事を始めている。
ロボット工学に必要な技術、そして先ほど説明したように、一般化された人間ロボット工学を想像するのに必要な技術である。
人間のロボット工学の方が簡単だと思われるが、その理由は、より多くの模倣訓練データがあるからだ。
我々は非常によく似た構造をしているため、ロボットに提供することができる。
というのも、私たちは世界を、私たちが相互運用し、働けるようなものに作り上げたからだ。
また、ワークステーションや製造•物流部門を設置する方法も、このプロジェクトのために設計されたものです。
このような人間型ロボットは、人間のために設計されたものである。
他の選手と同じように、スタック全体を上から順番に土台を作りながらデプロイする
人間のIMビデオを見て学習するモデルで、ビデオ形式でもいいし、バーチャル•リアリティー形式でもいい。
アイザック強化学習ジムと呼ばれるもので、ヒューマノイドロボットが物理的な世界に適応する方法を学習することができる。
ロボットカーに搭載されるコンピューターで、ソーと呼ばれる人間やロボットの内部で動作する。
トランスフォーマー•エンジンのためにデザインされたこのビデオでは、これらのいくつかを1つのビデオにまとめました。
人間には
私たちは発明し、現実を探求し、既成のものを超えていか

なければならない。
私たちは、より賢く、より速く創造するために、それを失敗へと追い込む。
私たちはそれを学び、それを教える手助けをする。精度を高め、それを知覚させ、動
かし、そして成功させる。
私たちとこの世界を共有するため
次のフロンティアは、Nvidia Project Grootです。
グループモデルを学習するヒューマノイドロボットは、マルチモーダルな指示と過去の経験を取り込む

ロボットとのインタラクションを入力とし、ロボットが実行す
べき次のアクションを生成します。私たちは、Omniverse Isaac SimでGrを訓練するロボット学習アプリケーションIsaac labを開発しました。
レーニング用のDGXシステムとトレーニング用のOVXシステム間のワークフローを調整する計算オーケストレーションサービス。
これらのツールを使ったシミュレーションにより、グルートを物理ベースのシミュレーションで訓練し、ゼロショットを現実の世界に移すことが できる。
ロボットが人間の実演から学習することで、日常作業を支援し、観察するだけで人間の動きを模倣できるようになる。
私たちは、人間を理解するNVIDIAの技術によって可能になったのですそして最終的には、それらを物理的なロボットに直接配備する。
大規模な言語モデルにより、自然言語の指示に従ってモーションを生成することも
できる。
ハイタッチしようぜ!クールな動きを見せてくれるかな?
この驚異的なインテリジェンスはすべて、グルート用に設計された新しいジェットソン•ソーのロボットチップによって駆動される。
アイザック•ラボのオスモとグルートとともに、私たちは次世代のAI を搭載するためのビルディング•ブロックを提供します。
ロボティクス同じくらい
エヌビディアの魂の大きさコンピュータグラフィックス物理学人工知能の交差点
それはこの瞬間、そのプロジェクトの名前一般的なロボティクスを負担するようになった。
私は超良い超を知っている

君たちはジェットソンが動力源なんだね......
彼らはジェットソンが動力源なんだ
小さなジェットソン•ロボット•コンピューターが、アイザックで歩くことを学ぶ

シムの皆さん、これはオレンジ色で、これは有名な緑色です。
さあ、研究しようじゃないか    まとめよう
じゃないか    5つのことをやろうじゃない
か    どこに行くんだ?
Don't Be Afraid(恐れるな)    こっち
へ来い、緑色の急げ、何を言っているんだ。
食べるのはまだ早い。
暫くお待ちを    早く終わらせてくれ。
産業革命  すべてのデータセンターは1兆ドル加速すべき

今後数年間で、設置されているデータセンターの価値が近代化される。
私たちがもたらした計算能力によって、ソフトウェアの新しいやり方が生まれました。
マルチユーザー•データではなく、ひとつのことだけに特化した新しいインフラを 構築する。
しかし、AIジェネレーターは、これらのAI世代が信じられないようなものを生み出すだろう。
価値あるソフトウェア、新たな産業革命 第二の革命のコンピューター
この世代のコンピュータ ジェネレイティブAI 兆のパラメータblackw 非常識な量のコ
ンピュータとコンピューティング第三 私はしようとしている
新しいコンピューターは、新しいタイプのコンピューターを生み出す。
新しいタイプのソフトウエアは、新しい方法で流通させなければならない。
クラウドで使いやすく、それでいて持ち運びもできる。この "ニム "を、我々は "ニム "と呼んでいる。
完全にゼロから書いたアプリケーションではなく、将来のために新しいタイプのアプリケーションを作る手助けをする。
チームでアプリケーションを作るように、それらを統合するのだ。
ニムスのAIテクノロジーとニモのツールの間には、素晴らしい能力がある。
dgxクラウドのAIファウンドリーインフラストラクチャを利用することで、独自のア
プリケーションを作成することができます。
そして最後に、将来、動くものはすべてロボットになるだろう。
ヒューマノイドであろうと、自動運転車であろうと、フォークリフトであろうと、アームを操作するシステムであろうと、必要なものはひとつだ

ロボットが指揮を執る工場に......ロボットが自動車を製造する製造ラインに    。
ロボット工学であるこれらのシステムには、デジタルプラットフォーム

、デジタルツインプラットフォームが必要である。
ロボット工学の世界    これが今日話した5つのことだ。
Gpusについて話すとき、Nvidiaはどのようなイメージを持っているのか。
Gpusについては、まずソフトウェア•スタックやそのようなものの束を目にする。これがブラックウェルだ。

驚くべき素晴らしいプロセッサー、MVリンク•スイッチ、ネットワ
ーク•システム、そしてシステム•デザインは奇跡だ。
マインド•リッスン•オレンジ•グリーン皆さんにもう一つご馳走があると思うんだけど、どう思う?
ありがとうございました。素晴らしいGTCをありがとうございました。