社内SEゆうきの徒然日記

社内SE歴20年以上の経験からIT全般についてつぶやきます

2025年、AIの常識を覆す。Google Gemini 3.0の全貌:噂される5つの革命的機能とGPT-5との最終決戦

AI開発競争が、かつてないほどの速度で加速しています。GoogleやOpenAIのような巨大テック企業が発表する新しいAIモデルは、単に技術を進歩させるだけでなく、私たちの世界の「可能」の定義そのものを書き換えています 。そんな中、2025年内に登場が噂されるGoogleの次世代AI「Gemini 3.0」への期待が、かつてなく高まっています。

リーク情報によれば、Gemini 3.0は単なる性能向上版(例えばGemini 2.6のような)ではありません。それは、AIのアーキテクチャ(基本設計)と能力を根本から再創造する、パラダイムシフトとなる可能性を秘めています 。これまでのAIが私たちの指示に「反応するツール」だったとすれば、Gemini 3.0は自ら目標を立てて能動的にタスクをこなす「協力者」へと進化を遂げるかもしれません 。

この記事では、飛び交う憶測や期待 の中から、最も信憑性の高いリーク情報、技術的な噂、専門家による分析を統合します。Gemini 3.0の心臓部であるアーキテクチャ、世界を変える可能性を秘めた5つの革命的な機能、そして最大のライバルであるOpenAIのGPT-5とどのように対峙するのか、その全貌に迫ります。

Gemini 3.0はいつ登場するのか? リリース時期の噂を徹底解剖

AI業界の最大の関心事の一つは、「Gemini 3.0はいつ使えるようになるのか?」という点です。現在、最も有力な見方として、2025年第4四半期後半から2026年初頭にかけて段階的にリリースされるというタイムラインが浮上しています 。これは、Googleが過去に主要モデルを約1年周期で発表してきたパターン(Gemini 1.0は2023年12月、Gemini 2.0は2024年12月)とも一致しており、信憑性の高い情報と見られています 。

段階的リリース戦略の狙い

Googleは、一度に全ユーザーへ公開する「ビッグバン」方式ではなく、戦略的な3段階のリリース計画を採用する可能性が高いと見られています。

  1. フェーズ1:限定的なエンタープライズ向けプレビュー(2025年12月頃) 一部の法人顧客やVertex AIパートナーに先行アクセスを提供し、実際のビジネス環境でのテストを通じて貴重なフィードバックを収集します 。
  2. フェーズ2:開発者向けAPIの公開(2026年初頭) APIを通じてより広範な開発者にモデルを公開し、次世代のAIアプリケーション開発を促進します 。
  3. フェーズ3:一般消費者向け製品への完全統合(2026年第1四半期) Android OS、Google検索、そして新型Pixelデバイスといった消費者向け製品に深く統合され、一般ユーザーがその恩恵を享受できるようになります 。

以前、2025年10月のリリースが噂されたこともありましたが 、これはAI Studioのようなプラットフォーム上でのA/Bテストや、「Nano Banana」のような関連モデルの小規模なリリースを指していた可能性が高いと考えられます 。

この段階的なアプローチは、単なる技術的な都合ではありません。まず、法人顧客という管理された環境でモデルの能力と安全性を徹底的にテストすることで、一般公開前に有害コンテンツの生成や「ハルシネーション(事実に基づかない情報の生成)」といった潜在的なリスクを特定し、修正することができます 。また、Googleのサーバーインフラへの負荷を分散させ、噂される新型アクセラレータ「TPU v6」などの計算リソースを計画的に拡張することも可能になります 。さらに、この戦略は数ヶ月にわたる持続的なニュースサイクルを生み出し、市場へのインパクトを最大化するマーケティングキャンペーンとしても機能します。

内部構造:”数兆”の専門家集団「Mixture of Trillions」への飛躍

Gemini 3.0の最大の進化は、その心臓部であるアーキテクチャにあると噂されています。それは「Mixture-of-Experts(MoE)」と呼ばれる先進的な構造です 。これを例えるなら、一つの巨大な脳が全知全能を目指すのではなく、何千人もの世界トップクラスの専門家(エキスパート)からなる委員会と、どんな質問に対しても「どの専門家に相談すべきか」を瞬時に判断する、極めて優秀な議長が存在するようなものです。

リーク情報によれば、Gemini 3.0は「数兆個の低位数(low single-digit trillions)」、つまり2兆から4兆個のパラメータを持つとされています 。これにより、モデルは前例のない深さの知識を持つことになります。

しかし、真の革新は、その効率性にあります。噂される「Conductor」というコードネームの動的ルーティングシステム(前述の「優秀な議長」)が、ユーザーからの質問を解析し、その都度必要な専門家集団(例えば1500億~2000億パラメータ)だけを瞬時に起動させるのです 。

このアーキテクチャは、Googleが未発表の3ナノメートルプロセスで製造されると噂される「TPU v6」アクセラレータと密接に連携して開発されていると言われています。これにより、電力効率と処理性能が飛躍的に向上し、この新しいアーキテクチャが必要とする驚異的なスピードが実現されるのです 。

この設計は、AI業界が直面してきた「性能」「速度」「コスト」という三重の課題(トリレンマ)に対する直接的な解決策です。巨大なモデルは高性能ですが、処理が遅く運用コストも高額です。一方、小さなモデルは高速で安価ですが、高度な推論能力に欠けます。Gemini 3.0のアーキテクチャは、この問題を解決します。「数兆」のパラメータが複雑なタスクに対応する性能を担保し、「Conductor」が必要な専門家だけを呼び出すことで、単純なタスクでは驚異的な速度と低コストを実現します。これにより、「フランスの首都は?」といった簡単な質問には瞬時に応答し、「日本のサステナブルエネルギー分野におけるスタートアップの事業計画書を、市場分析と財務予測を含めて作成せよ」といった複雑な要求には、経済学、工学、日本市場、ライティングの専門家チームを編成して対応する、といった芸当が可能になります。これは、数兆パラメータ規模のAIを、誰もが日常的に使える実用的なツールにするための、画期的な一歩と言えるでしょう 。

5つの革命:Gemini 3.0がもたらすゲームチェンジ

Gemini 3.0は、単なる性能向上に留まらず、私たちの生活やビジネスのあり方を根底から変える可能性を秘めた、5つの革命的な能力を備えていると噂されています。

3.1. 視覚を超えて:動き、3D、空間を理解する真のマルチモーダル

これまでのAIが静止画を「見る」だけだったのに対し、Gemini 3.0は動きのある世界を「理解」する能力を持つとされています。

  • リアルタイム動画理解:最大の飛躍は、最大60FPS(1秒間に60フレーム)で動画をリアルタイム処理する能力です 。これは、単に短い動画クリップを要約するレベルを遥かに超え、AIが動き、アクション、時間の流れをリアルタイムで把握できることを意味します 。
  • 3Dシーンと物体の把握:平面的な画像だけでなく、3D環境、物体の奥行きや形状を理解する能力も噂されています 。3Dポイントクラウドのような複雑なデータを処理し、物体間の空間的な関係性を把握できるようになるのです 。
  • 地理空間インテリジェンス:地図やライブの地理空間データと統合することで、現実世界に対する新しいレベルの認識能力を獲得します 。

これらの能力は、AR/VR(拡張現実/仮想現実)やロボット工学に革命をもたらします。例えば、ARグラスをかければ、デジタルな物体が現実の物理法則に従ってリアルに相互作用する、真に没入感のある体験が可能になります 。また、ロボットや自動運転車が、複雑で動的な環境を正確に認識し、安全に移動・作業するための「目」と「空間認識能力」を提供することにも繋がります 。

これは、AIの役割が「受動的な記述者」から「能動的な参加者」へと変わることを意味します。これまでのAIは、「犬がフリスビーをキャッチしている写真」を説明することはできましたが、それは静的な世界の観察者に過ぎませんでした。Gemini 3.0の噂される能力は、3つの空間次元に「時間」を加えた4次元の動的な世界を理解することを可能にします。これは、AIが単に世界を説明するだけでなく、世界と相互作用するための根本的な前提条件です。「あの車は歩行者に向かって動いている」「この仮想ソファをここに置くと、ドアを塞いでしまう」といった文脈を理解できるようになることで、デジタルな知性が初めて物理世界と繋がるのです。

3.2. ツールからチームメイトへ:「Deep Think」によるAIエージェントの夜明け

Gemini 3.0は、単に質問に答えるだけでなく、自律的にタスクを遂行する「AIエージェント」としての能力を飛躍的に高めると言われています 。

  • 思考エンジン「Deep Think」:モデルに内蔵されると噂される「Deep Think」モードは、単なる思考の連鎖(Chain-of-Thought)の改善ではありません。行動する前に複数の選択肢を検討し、多段階の計画を立て、自己修正を行うためのシステムです 。
  • マルチエージェント・オーケストレーション:Gemini 3.0が司令塔となり、専門分野に特化した複数の「ヘルパーエージェント」やツールにタスクを並行して割り振り、管理する能力です 。

これにより、複雑なビジネスワークフローの自動化が可能になります 。例えば、ユーザーが「最新の売上データを分析し、最も業績の悪い3つの地域を特定し、それぞれの地域の課題に合わせたマーケティングメールを作成し、地域マネージャーとのフォローアップ会議をスケジュールして」と指示するだけで、AIがこれら一連のタスクを自律的に実行する未来が現実味を帯びてきます。

これは、AIが複雑なプロジェクトの「ゼネコン(総合建設業者)」の役割を担うことを意味します。現在のAIは、ウェブを閲覧し、次にデータを分析し、その次に要約を書く、といったようにタスクを順番にこなします。ユーザーは一度に一つの指示を出すプロジェクトマネージャーのようです。しかし、「マルチエージェント・オーケストレーション」の概念は、AIの役割を格上げします。高度な目標を与えられると、Gemini 3.0はタスクを分解し 、データ分析エージェント、メール作成エージェント、スケジュール管理エージェントといった専門の「下請け業者」を同時に雇い、管理するのです。これは、人間が戦略的な意図を伝え、AIが戦術的な実行を複数の領域にわたって統括するという、コンピューティングにおける新しい抽象化のレイヤーを意味します。

3.3. 圧倒的なスキルとスピード:新たなパフォーマンス基準の確立

初期のA/Bテストでは、Gemini 3.0の驚異的な性能がすでに垣間見えています。

  • コーディングとWebデザイン:Gemini 3.0 ProがWebデザインにおいて「伝説的」と評され、複雑なウェブページを再現するために約2300行のコードをほぼ完璧な忠実度で生成したと報告されています 。
  • SVG生成:複雑なSVG(ベクター画像)を生成する能力は、競合を大幅に上回るだけでなく、その背後にある強力なコーディング能力と技術的基盤の強さを示唆しています 。

さらに、新しいアーキテクチャとTPU v6ハードウェアによって、サブ秒(1秒未満)の応答速度が実現されると噂されています 。これは、リアルタイムの対話やAIエージェントの動作に不可欠な要素です。

これらの性能は、単なる技術デモ以上の意味を持ちます。複雑なウェブページを完璧に再現する能力は、一見すると巧妙な芸のように見えますが、法人顧客や開発者にとっては、AIが単に「概要を掴む」だけでなく、複雑で多段階の指示を極めて高い精度で実行できることの強力な証明となります。これは、わずかなエラーが大きな損害に繋がりかねないコード生成、金融分析、科学研究といった分野において不可欠な要件です。このような検証可能な高難度タスクで圧倒的な性能を示すことで、Googleは「これほどの複雑さを完璧に処理できるなら、あなたの企業の基幹業務も安心して任せられる」という信頼を市場に示しているのです。これは、企業のAI導入における信頼性や正確性への懸念を払拭するための戦略的な一手と言えます。

3.4. ポケットの中の頭脳:オンデバイスAI「Nano 3」の衝撃

Gemini 3.0は、クラウド上だけでなく、私たちの手の中にあるデバイスにも革命をもたらします。

  • 新世代のオンデバイスAI:次世代のオンデバイスモデルは「Nano 3」またはコードネーム「Nano Banana」と呼ばれています 。
  • アーキテクチャの革新:最も重要な噂は、この新しいNanoモデルが、従来の軽量版ではなく、より高性能なGemini 3.0 Proのアーキテクチャをベースにしているという点です 。

これにより、Pixelスマートフォンのようなデバイス上で直接、高度なAIが動作することの意味は計り知れません 。

  • 比類なき応答性:ネットワークの遅延がなくなることで、真に瞬時の応答とアクションが実現します。
  • プライバシーとセキュリティの向上:機密性の高いデータをクラウドに送信することなく、デバイス上で処理できます。
  • 真のオフライン機能:インターネット接続がない場所でも、リアルタイムの会話要約やライブ動画分析といった複雑なタスクが実行可能になるかもしれません。

これは、GoogleがオンデバイスAIを、クラウド版の「簡易版」としてではなく、戦略的な武器として位置づけていることを示唆します。Proレベルのアーキテクチャをデバイスに搭載することは、ハードウェアとソフトウェアの強力な相乗効果を生み出し、将来のPixelデバイスを根本的により賢く、応答性の高いものにするでしょう 。これは、ユーザーが意識することなく、知性が生活のあらゆる場面にシームレスに溶け込む「アンビエント・コンピューティング」というGoogleの長期的なビジョンを実現するための、極めて重要な布石です。

3.5. 新たな神経系:Googleエコシステムへの深い統合

Gemini 3.0の真価は、Googleの広範な製品群全体に深く統合されることで発揮されます 。

  • Workspaceの変革:Docs、Sheets、Gmailでの活用は、単なる下書き作成を超え、複数のドキュメントにまたがる複雑な推論やワークフローの自動化へと進化します 。例えば、Sheetsのデータからグラフを自動生成し、Gmailの関連スレッドを要約して、四半期報告書をSlidesで作成するといったことが可能になるかもしれません。
  • Androidと検索の未来:GeminiがAndroid OSの中核的な知性となり、従来のGoogleアシスタントを遥かに超える、パーソナライズされた文脈理解能力を持つ存在へと進化する可能性があります 。検索も、単なるリンクのリストから、AIエージェントが情報を統合・要約して提供する形へと変わっていくでしょう。

Googleが持つエコシステム(Gmail、カレンダー、マップ、Androidなど)は、競合他社にはない最大の戦略的優位性です。Gemini 3.0は、これらのサービスを繋ぐ「中枢神経系」となるべく設計されています。これにより、AIがユーザーのデジタルライフに深く組み込まれ、プロアクティブに支援する「アンビエント・コンピューティング」が現実のものとなります。例えば、Gmailで航空券の予約確認メールを受信すると、AIが自動でカレンダーに予定を追加し、マップで交通状況を確認し、空港へ向かうべき時間を提案する、といったことが、ユーザーからの指示なしに行われるのです。このレベルのシームレスな統合は、競合が容易に模倣できない強力な「堀」となり、Geminiを単なる高性能AIモデルから、生活に不可欠なOSへと昇華させるでしょう。

AI頂上決戦:Gemini 3.0 vs. GPT-5

憶測の域を出ない部分も多いですが、噂されるGemini 3.0とGPT-5の能力は、AI開発における哲学と強みの興味深い対立構造を示しています 。

未検証の報告では、人間には極めて困難とされる「humanity's last exam」というベンチマークにおいて、Gemini 3.0が**32.4%のスコアを記録したのに対し、GPT-5は26.5%**だったとされています 。これはあくまで噂ですが、もし事実であれば、その差は非常に大きいと言えます。

両者の違いは、その設計思想にも表れています。Gemini 3.0が効率性と拡張性を追求した動的なMoEアーキテクチャを採用するのに対し、GPT-5は高速な思考と深い思考を融合させた「統合モデル」を目指していると噂されています 。以下の表は、噂に基づいた両モデルの能力比較です。

機能

Google Gemini 3.0 Pro (噂)

OpenAI GPT-5 (噂)

コアアーキテクチャ

「Conductor」による動的Mixture-of-Experts(数兆パラメータ)

「高速思考」と「低速思考」を統合したモデル

推論エンジン

自律的な計画・自己修正を行う「Deep Think」モード内蔵

高度な推論モード、おべっか(Sycophancy)の削減

エージェント能力

複雑なワークフローを自動化するマルチエージェント・オーケストレーション

強力なツール使用能力。マルチエージェントの協調に関する言及は少ない

マルチモーダル

リアルタイム動画(60FPS)、3Dシーン理解、地理空間データ

テキスト、画像、音声、動画の処理能力向上、高品質な画像生成

コンテキストウィンドウ

数百万トークンと、より賢い情報検索

25万~50万トークン

オンデバイス版

Proレベルのアーキテクチャをベースにした「Nano 3」

「Nano」および「Mini」バージョン

主要な戦略

Google製品群の「神経系」となる深いエコシステム統合

非常に多機能で、自然な対話能力を持つ「万能型」AI

結論:Gemini 3.0があなたにとって意味すること

Gemini 3.0に関する噂が示すのは、AIが「反応するアシスタント」から「能動的な協力者」へと進化する、大きなパラダイムシフトです。それは、単に質問に答えるAIから、目標を達成するAIへの移行を意味します。

  • 開発者にとって:リアルタイムで世界を見て、聞いて、理解できるアプリケーションを構築するための、全く新しいプラットフォームの登場を意味します。
  • ビジネスにとって:複雑なワークフロー全体を自動化し、前例のない生産性向上を実現する可能性を秘めています 。
  • 一般ユーザーにとって:テクノロジーが私たちのニーズを先読みし、意識することなく裏側でシームレスに機能する、真にインテリジェントな「アンビエント・コンピューティング」体験の到来を予感させます。

これらは現時点では噂に過ぎませんが、Googleが描く野心的な未来像を明確に示しています。AI開発競争は加速の一途をたどり、2025年は、SFと現実の境界線が決定的に曖昧になる年として、歴史に刻まれることになるでしょう。

Gemini 3.0 Q&A

  1. Q: Google Gemini 3.0のリリースはいつですか?
  • A: 2025年第4四半期後半に限定的な法人向けプレビューが開始され、2026年初頭に開発者向け公開と一般消費者向けへの展開が続く、段階的なリリースが噂されています。
  1. Q: Gemini 3.0のアーキテクチャはどのようなものですか?
  • A: 数兆個のパラメータを持つ可能性のある、動的なMixture-of-Experts(MoE)アーキテクチャだと噂されています。「Conductor」と呼ばれるシステムを使い、質問に応じて専門的なサブモデルを効率的に呼び出す仕組みです。
  1. Q: Gemini 3.0の「Deep Think」とは何ですか?
  • A: 噂されている内蔵の推論モードで、AIが多段階の計画を立て、複数の選択肢を検討し、自身の作業をチェックし、複雑な問題を自律的に解決することを可能にします。
  1. Q: Gemini 3.0の動画機能はどのように進化しますか?
  • A: 最大60FPSでのリアルタイム動画理解に対応すると予想されており、ライブイベントや動き、アクションを分析し、反応することが可能になります。
  1. Q: 「マルチエージェント・オーケストレーション」とはどういう意味ですか?
  • A: Gemini 3.0が司令塔として機能し、複数の専門AIエージェントやツールにタスクを並行して委任することで、複雑で多段階のワークフローを自動化する能力のことです。
  1. Q: Gemini 3.0は3DやAR/VRに対応しますか?
  • A: はい、3Dオブジェクト、シーン、地理空間データを理解する高度な能力を持つと噂されており、これは没入感のあるAR/VR体験やロボット工学の基盤となります。
  1. Q: 「Nano 3」や「Nano Banana」とは何ですか?
  • A: 噂されている次世代のオンデバイス版Geminiのことです。より高性能なGemini 3.0 Proアーキテクチャをベースにしていると推測されており、インターネット接続なしで高度なAI機能をモバイルデバイス上で実行可能にします。
  1. Q: Gemini 3.0の性能は競合と比べてどうですか?
  • A: 初期のA/Bテストでは、コーディングとWebデザインにおいて伝説的な性能を示したとされています。また、未検証の報告では、「humanity's last exam」という高難度ベンチマークで、噂されるGPT-5よりも高いスコアを記録したと主張されています。
  1. Q: Gemini 3.0はGoogle Workspaceとどのように連携しますか?
  • A: 深く統合されると予想されています。例えば、Sheetsからデータを取得し、Gmailの関連メールを要約して、Slidesでレポートを生成するなど、統一された生産性エンジンとして機能することが期待されます。
  1. Q: 噂されるGemini 3.0とGPT-5の戦略的な違いは何ですか?
  • A: Gemini 3.0の戦略は、深いエコシステム統合とエージェントによる自動化に重点を置いているように見えます。一方、GPT-5は、非常に多機能で、極めて自然な対話能力を持つ万能型AIを目指していると噂されています。

引用文献

1. 2025 AI Business Predictions - PwC, https://www.pwc.com/us/en/tech-effect/ai-analytics/ai-predictions.html 2. 10 fast-growing US careers you’ll regret ignoring in 2025, https://timesofindia.indiatimes.com/education/careers/news/10-fast-growing-us-careers-youll-regret-ignoring-in-2025/articleshow/124356208.cms 3. GPT-5 vs. Gemini 3: The Winner Is Clear - Course Unlocked, https://www.courseunlocked.com/p/gpt-5-vs-gemini-3 4. Seizing the agentic AI advantage - McKinsey, https://www.mckinsey.com/capabilities/quantumblack/our-insights/seizing-the-agentic-ai-advantage 5. Gemini 3 on (9 Oct) Is actually diffusion models - intuition : r/Bard - Reddit, https://www.reddit.com/r/Bard/comments/1nze3hh/gemini_3_on_9_oct_is_actually_diffusion_models/ 6. Gemini 3 Pro's release next week seems all but confirmed, given that Google is hyping a major release. : r/Bard - Reddit, https://www.reddit.com/r/Bard/comments/1nx4tav/gemini_3_pros_release_next_week_seems_all_but/ 7. Google's Gemini 3.0: Here Is All We Know and What to Expect | Fello ..., https://felloai.com/2025/06/googles-gemini-3-0-here-is-all-we-know-and-what-to-expect/ 8. Google Gemini 3 Pro Rumors: Release Date, Features, and What to ..., https://www.ainewshub.org/post/google-gemini-3-pro-rumors-release-date-features-and-what-to-expect-in-late-2025 9. Google A/B tests Gemini 3 on AI Studio ahead of the release, https://www.testingcatalog.com/google-a-b-tests-gemini-3-on-ai-studio-ahead-of-october-9-release/ 10. Google Gemini 3: What to Expect from the Next Leap in AI ... - Medium, https://medium.com/@ranam12/google-gemini-3-what-to-expect-from-the-next-leap-in-ai-innovation-in-late-2025-ed0eba2aaacd 11. Gemini (language model) - Wikipedia, https://en.wikipedia.org/wiki/Gemini_(language_model) 12. A Multimodal LLM Pipeline for Video Understanding | by Mohamed Hasan | Medium, https://eng-mhasan.medium.com/a-multimodal-llm-pipeline-for-video-understanding-b1738304f96d 13. Video understanding | Gemini API - Google AI for Developers, https://ai.google.dev/gemini-api/docs/video-understanding 14. SpatialLM : AI to Convert Video to 3D scene understanding outputs Explained - YouTube, https://www.youtube.com/watch?v=bAPXgalFmwM 15. (PDF) 3D Scene Understanding for AR/VR Using Point Cloud Deep Learning Models, https://www.researchgate.net/publication/392166267_3D_Scene_Understanding_for_ARVR_Using_Point_Cloud_Deep_Learning_Models 16. Open☀️3D, https://opensun3d.github.io/ 17. 3D Scene Understanding for Real Applications - Modena ELLIS Unit, https://www.ellis.unimore.it/media/lecture_files/3D_Scene_Understanding_for_Real_Applications.pdf 18. 3D Scene Understanding with Deep Learning - University of Michigan Library, https://deepblue.lib.umich.edu/bitstream/handle/2027.42/175691/junming_1.pdf?sequence=1 19. The Rise of AI Agents—Collaborative Intelligence - CyberArk, https://www.cyberark.com/resources/blog/the-rise-of-ai-agents-collaborative-intelligence 20. What Are AI Agents? | IBM, https://www.ibm.com/think/topics/ai-agents 21. Google's Gemini 3.0 Crushes GPT-5 (99% Miss This) | by TechToFit ..., https://pub.aimind.so/googles-gemini-3-0-crushes-gpt-5-99-miss-this-dd16eed710d0 22. Has anyone successfully used an AI agent to fully automate a business process from start to finish? - Reddit, https://www.reddit.com/r/AI_Agents/comments/1ne1o9o/has_anyone_successfully_used_an_ai_agent_to_fully/ 23. AI agents at work: The new frontier in business automation | Microsoft Azure Blog, https://azure.microsoft.com/en-us/blog/ai-agents-at-work-the-new-frontier-in-business-automation/ 24. What are AI Agents?- Agents in Artificial Intelligence Explained ..., https://aws.amazon.com/what-is/ai-agents/ 25. Has Gemini 3.0 been secretly released? A look at the latest truth & forecast, https://dev.to/_37bbf0c253c0b3edec531e/has-gemini-30-been-secretly-released-a-look-at-the-latest-truth-forecast-1kfd 26. 【Google I/O】注目の「Gemini」新機能7つ(エージェントモードから、ささやき声まで) - ライフハッカー, https://www.lifehacker.jp/article/2505-seven-new-gemini-features-google-announced-at-google-io-2025/ 27. What Are the Best AI Models in 2025? - Revolutionized, https://revolutionized.com/what-are-the-best-ai-models-in-2025/ 28. GPT 5 Compared to Gemini and Claude & Grok - Nitro Media Group, https://www.nitromediagroup.com/gpt-5-vs-gemini-claude-grok-differences-comparison/ 29. Compare GPT-5 pro vs. Gemini 3.0 Pro in 2025 - Slashdot, https://slashdot.org/software/comparison/GPT-5-pro-vs-Gemini-3.0-Pro/

にほんブログ村 IT技術ブログ IT技術メモへ
にほんブログ村 IT技術ブログ セキュリティ・暗号化へ
.