OpenAIは、o3とo4-miniの2つの新しいChatGPTモデルを発表しましたが、OpenAIによると、これらのモデルは最もスマートで高性能なモデルであるだけでなく、画像を見るだけでなく、画像を推論プロセスに組み込むなど、画像を実際に「考える」機能も備えています。どちらのモデルも、ChatGPT Plus、Pro、Team プランのユーザーが利用でき、ChatGPT Enterprise および Edu ユーザーは 1 週間以内に利用できるようになります。 同時に、開発者はチャット完了APIと応答APIを通じて2つの新しいモデルを使用できるようになりました。O3: オールラウンドなプレイヤー、推理力、視覚理解力が完全にアップグレードされましたOpenAIによると、o3モデルはいくつかの分野で優れており、特にプログラミング、数学演算、科学的推論、視覚的理解などのタスクで新しい基準を打ち立てています。 このモデルは、次のようないくつかの組み込みツールの統合もサポートしています。Web 検索Python 算術演算ツール画像解析と生成ファイル解析機能これは、ユーザーが質問するだけでなく、AIが実際にデータの分析、写真を見て解釈し、さらには画像やコードを自動的に生成できるようにすることを意味します。O4-MINI: 多数のクエリニーズに適した高効率推論マシンO3と比較して、O4-miniはコストと速度の最適化に重点を置いています。 モデルは小さいですが、その推論機能は依然として優れており、特に高頻度と高スループットを必要とするアプリケーションに適しています。OpenAIによると、1日に何百もの質問をする必要がある場合は、o4-miniが間違いなく最適です。 また、優れたパフォーマンスと低いコンピューティングコストにより、ユーザーはより高い使用量クォータを享受できます。「絵」から「絵で考える」へ両モデルの最大のハイライトの1つは、初めて「イメージで考える」能力です。従来のAIモデルでは画像しか見ることができませんでしたが、o3とo4-miniは推論プロセス全体に画像を組み込むことができるようになりました。 つまり、モデルに画像を渡すと、画像に何が写っているかがわかるだけでなく、その画像を推論の手がかりとして扱い、テキストデータを分析して統合し、より深く答えます。このブレークスルーは、教育、医療、デザイン、エンジニアリングなどの分野に恩恵をもたらします。 GPTに写真の逆さまのメモに何を書くべきかを推論するように依頼します ChatGPTに写真の港船を識別し、関連情報を推測するように依頼できます モデルの新しいバージョンはオンラインであり、ChatGPTユーザーはすぐにそれを体験できます今後、ChatGPT Plus、Pro、および Team のユーザーには、次のものが表示されます。O3O4-ミニO4-ミニハイ古いO1、O3-Mini、O3-Mini-Highに取って代わります。 現在、Proユーザーはo1-proモデルを選択できますが、OpenAIによると、o3-proは今後数週間以内に発売され、完全なツールサポートが利用可能になるとのことです。開発者ツールは同期的にアップグレードされ、Responses API によって推論機能が強化されますChatGPT ユーザーに加えて、開発者は Chat Completions API と新しくアップグレードされた Responses API を通じて o3 と o4-mini を使用できるようになりました。Responses API には、次のような新機能が追加されています。推論の要約推論プロセスのためのトークンの永続化のサポート (パフォーマンスの向上)Web検索、ファイル検索、コードインタプリタなどの組み込みツールは、まもなくサポートされる予定ですこれにより、開発者はよりスマートで、より推論的なアプリケーションを構築できます。o3 と o4-mini の導入により、OpenAI は AI モデルの上限を再び引き上げました。 総合的に推理力がアップしただけでなく、「絵を見て考える」ことを真に理解する能力も加わりました。 開発者、ビジネスユーザー、好奇心旺盛な日常ユーザーのいずれであっても、どちらのモデルもより多くのオプションと可能性を提供します。 この記事 OpenAIがo3とo4-miniを発売:最もスマートなChatGPTモデルがデビュー、「画像推論」が新たなブレークスルーに first appeared in Chain News ABMedia.
OpenAI が O3 と O4-mini を発表: 最もスマートな ChatGPT モデルがデビューし、「画像推論」が新たなブレークスルー
OpenAIは、o3とo4-miniの2つの新しいChatGPTモデルを発表しましたが、OpenAIによると、これらのモデルは最もスマートで高性能なモデルであるだけでなく、画像を見るだけでなく、画像を推論プロセスに組み込むなど、画像を実際に「考える」機能も備えています。
どちらのモデルも、ChatGPT Plus、Pro、Team プランのユーザーが利用でき、ChatGPT Enterprise および Edu ユーザーは 1 週間以内に利用できるようになります。 同時に、開発者はチャット完了APIと応答APIを通じて2つの新しいモデルを使用できるようになりました。
O3: オールラウンドなプレイヤー、推理力、視覚理解力が完全にアップグレードされました
OpenAIによると、o3モデルはいくつかの分野で優れており、特にプログラミング、数学演算、科学的推論、視覚的理解などのタスクで新しい基準を打ち立てています。 このモデルは、次のようないくつかの組み込みツールの統合もサポートしています。
Web 検索
Python 算術演算ツール
画像解析と生成
ファイル解析機能
これは、ユーザーが質問するだけでなく、AIが実際にデータの分析、写真を見て解釈し、さらには画像やコードを自動的に生成できるようにすることを意味します。
O4-MINI: 多数のクエリニーズに適した高効率推論マシン
O3と比較して、O4-miniはコストと速度の最適化に重点を置いています。 モデルは小さいですが、その推論機能は依然として優れており、特に高頻度と高スループットを必要とするアプリケーションに適しています。
OpenAIによると、1日に何百もの質問をする必要がある場合は、o4-miniが間違いなく最適です。 また、優れたパフォーマンスと低いコンピューティングコストにより、ユーザーはより高い使用量クォータを享受できます。
「絵」から「絵で考える」へ
両モデルの最大のハイライトの1つは、初めて「イメージで考える」能力です。
従来のAIモデルでは画像しか見ることができませんでしたが、o3とo4-miniは推論プロセス全体に画像を組み込むことができるようになりました。 つまり、モデルに画像を渡すと、画像に何が写っているかがわかるだけでなく、その画像を推論の手がかりとして扱い、テキストデータを分析して統合し、より深く答えます。
このブレークスルーは、教育、医療、デザイン、エンジニアリングなどの分野に恩恵をもたらします。
GPTに写真の逆さまのメモに何を書くべきかを推論するように依頼します ChatGPTに写真の港船を識別し、関連情報を推測するように依頼できます モデルの新しいバージョンはオンラインであり、ChatGPTユーザーはすぐにそれを体験できます
今後、ChatGPT Plus、Pro、および Team のユーザーには、次のものが表示されます。
O3
O4-ミニ
O4-ミニハイ
古いO1、O3-Mini、O3-Mini-Highに取って代わります。 現在、Proユーザーはo1-proモデルを選択できますが、OpenAIによると、o3-proは今後数週間以内に発売され、完全なツールサポートが利用可能になるとのことです。
開発者ツールは同期的にアップグレードされ、Responses API によって推論機能が強化されます
ChatGPT ユーザーに加えて、開発者は Chat Completions API と新しくアップグレードされた Responses API を通じて o3 と o4-mini を使用できるようになりました。
Responses API には、次のような新機能が追加されています。
推論の要約
推論プロセスのためのトークンの永続化のサポート (パフォーマンスの向上)
Web検索、ファイル検索、コードインタプリタなどの組み込みツールは、まもなくサポートされる予定です
これにより、開発者はよりスマートで、より推論的なアプリケーションを構築できます。
o3 と o4-mini の導入により、OpenAI は AI モデルの上限を再び引き上げました。 総合的に推理力がアップしただけでなく、「絵を見て考える」ことを真に理解する能力も加わりました。 開発者、ビジネスユーザー、好奇心旺盛な日常ユーザーのいずれであっても、どちらのモデルもより多くのオプションと可能性を提供します。
この記事 OpenAIがo3とo4-miniを発売:最もスマートなChatGPTモデルがデビュー、「画像推論」が新たなブレークスルーに first appeared in Chain News ABMedia.