OpenAI випустила найсильнішу модель висновків o3 та o4-mini: може думати про картинки, автоматично вибирати інструменти та робити прориви в математиці та продуктивності кодування
Сьогодні OpenAI офіційно оголосила про моделі логічного висновку o3 та o4-mini, вперше реалізувавши висновування зображень та інтеграцію кількох інструментів, і спільнота оптимістично налаштована щодо його потенціалу для просування «агентів штучного інтелекту». (Синопсис: OpenAI таємно створює власну соціальну платформу, вказуючи на X Маска) (Довідкове доповнення: GPT-5 відкладено!) OpenAI спочатку штовхає o3, o4-mini, Сем Альтман розповів: інтеграція складніша, ніж очікувалося) Гігант штучного інтелекту OpenAI офіційно випустив дві моделі логічного висновку нового покоління - o3 і o4-mini рано вранці (17) року, наголосивши на своєму «висновуванні зображення» та можливості автономно використовувати всі інструменти ChatGPT, запускаючи глобальний ШІ Спільнота розробників гуде, що символізує ще один ключовий крок до «сурогатного ШІ» для компанії. Математика, кодування та інші прориви в продуктивності o3 позиціонується як найсильніша модель логічного висновку OpenAI на сьогоднішній день, призначена для складних математичних, природничих, написаних кодом і графічних логічних завдань, і досягає найсучаснішої продуктивності в SWE-bench Verified (тест програмної інженерії) з результатом 69,1%, випереджаючи 62,3% Claude 3.7 Sonnet. O4-mini зберігає високу інтелектуальну силу, враховуючи вартість і швидкість, стаючи легким першим вибором для розробників. Згідно з тестовими даними OpenAI, продуктивність o4-mini в AIME (American Mathematics Competition) 2024 та 2025 становить 93,4% та 92,7% відповідно, перевершуючи повну версію o3 та стаючи актуальною моделлю з найвищою точністю; Наберіть 2700 балів у змаганнях Codeforces і увійдіть до числа 200 найкращих інженерів світу. O3 і O4-mini продовжують метод навчання, орієнтований на висновки, на якому наголошує серія O, спеціально розроблений як модельна архітектура «думай довше, перш ніж реагувати», щоб ШІ міг не тільки швидко реагувати, але й вирішувати складні та багатоетапні проблеми. Цей дизайн також означає, що OpenAI продовжує рухатися в технічному контексті «більше часу висновків = вища продуктивність» і перевіряє цю гіпотезу в процесі навчання з підкріпленням. Виведення зображень вперше: штучний інтелект може «розуміти діаграми, ескізи та PDF-файли» Найяскравішим оновленням є те, що обидві моделі вперше мають можливості виведення зображень. O3 та O4-mini можуть розуміти та аналізувати зображення, навіть у низькій якості, такі як рукописні дошки, розмиті PDF-файли, ескізи та статистичні діаграми, а також включають багатоетапні процеси міркування. Це означає, що ШІ може не тільки читати текстові інструкції та реагувати на них, а й «думати» логіку та асоціацію, що стоїть за зображенням, рухаючись до справжньої мультимодальної агентської системи. На додаток до покращеного візуального сприйняття, моделі також можуть оперувати зображеннями, такими як обертання, масштабування або обробка деформацій, роблячи зображення частиною ланцюжка висновків і відкриваючи нові рішення кросмодальних проблем. Інтеграція мультитулів: від «чату» до «вирішення завдань» Обидві моделі можуть автономно називати інструменти, надані ChatGPT, включаючи пошук, виконання програм, DALL· E Генерація та аналіз зображень для реалізації інтегрованого процесу від отримання інструкцій, збору інформації до візуального мислення. На відміну від попереднього пасивного виконання логіки використання інструментів, O3 і O4-mini мають автономні можливості прийняття рішень і можуть автоматично вибирати, чи включати такі інструменти, як пошук, виконання програми або генерація зображень, відповідно до характеру проблеми, показуючи робочий процес, близький до робочого процесу експертів-людей. Цей гнучкий спосіб застосування політик також дозволяє моделі динамічно коригувати порядок обробки та вміст на основі вхідних даних, що є важливою віхою на шляху до «сурогатного ШІ». OpenAI також запустила інструмент з відкритим вихідним кодом Codex CLI для розробників, щоб інтегрувати штучний інтелект у локальний термінал, щоб допомогти в написанні та налагодженні коду. Codex CLI тепер має відкритий вихідний код, і відкрита програма грантів на розробку на мільйон доларів. Ціни та доступність: o4-mini має перевагу "високого CP" Ціна API моделі o3 становить 10 доларів США за мільйон вхідних токенів і 40 доларів США вихідних токенів; Для порівняння, O4-MINI коштує лише $1,10 та $4,40, що трохи поступається за продуктивністю, але має переважну перевагу у вартості. Користувачі ChatGPT Plus ($20/місяць), Pro ($200/місяць) та Team доступні вже зараз, а підприємства та навчальні заклади будуть доступні за тиждень. OpenAI наочно демонструє напрямок еволюції «штучного інтелекту висновків» через o3 та o4-mini, не тільки покращуючи мовні можливості, але й вперше інтегруючи розуміння зображень та роботу з інструментами. Ці дві моделі є не просто єдиною точкою оновлення, а й важливим переходом від ChatGPT до проксі-ШІ. Майбутній запуск o3-pro (який буде доступний для користувачів Pro найближчими тижнями) і GPT-5, якщо цей раунд технологічних проривів вдасться інтегрувати, матиме можливість визначити наступне покоління стандартів продуктів штучного інтелекту. Related reports: OpenAI посилює GPT-4o, щоб кинутися на друге місце в рейтингу! Сем Альтман: Краще розуміння людей і написання програм, креативність зростає OpenAI оголошує: Open Agents SDK підтримує MCP, з'єднуючи все послідовно, щоб зробити ще один ключовий крок OpenAI запускає найсильнішу графічну модель: точна інформаційна графіка, мультимодальне введення, реалістичне та важко розрізнене, вбудоване в GPT-4o 〈OpenAI випускає o3 та o4-mini Найсильніші моделі висновків: вміє думати про картинки, автоматично підбирати інструменти, математика, Ця стаття була вперше опублікована в журналі BlockTempo "Dynamic Trend - The Most Influential Blockchain News Media".
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
OpenAI випустила найсильнішу модель висновків o3 та o4-mini: може думати про картинки, автоматично вибирати інструменти та робити прориви в математиці та продуктивності кодування
Сьогодні OpenAI офіційно оголосила про моделі логічного висновку o3 та o4-mini, вперше реалізувавши висновування зображень та інтеграцію кількох інструментів, і спільнота оптимістично налаштована щодо його потенціалу для просування «агентів штучного інтелекту». (Синопсис: OpenAI таємно створює власну соціальну платформу, вказуючи на X Маска) (Довідкове доповнення: GPT-5 відкладено!) OpenAI спочатку штовхає o3, o4-mini, Сем Альтман розповів: інтеграція складніша, ніж очікувалося) Гігант штучного інтелекту OpenAI офіційно випустив дві моделі логічного висновку нового покоління - o3 і o4-mini рано вранці (17) року, наголосивши на своєму «висновуванні зображення» та можливості автономно використовувати всі інструменти ChatGPT, запускаючи глобальний ШІ Спільнота розробників гуде, що символізує ще один ключовий крок до «сурогатного ШІ» для компанії. Математика, кодування та інші прориви в продуктивності o3 позиціонується як найсильніша модель логічного висновку OpenAI на сьогоднішній день, призначена для складних математичних, природничих, написаних кодом і графічних логічних завдань, і досягає найсучаснішої продуктивності в SWE-bench Verified (тест програмної інженерії) з результатом 69,1%, випереджаючи 62,3% Claude 3.7 Sonnet. O4-mini зберігає високу інтелектуальну силу, враховуючи вартість і швидкість, стаючи легким першим вибором для розробників. Згідно з тестовими даними OpenAI, продуктивність o4-mini в AIME (American Mathematics Competition) 2024 та 2025 становить 93,4% та 92,7% відповідно, перевершуючи повну версію o3 та стаючи актуальною моделлю з найвищою точністю; Наберіть 2700 балів у змаганнях Codeforces і увійдіть до числа 200 найкращих інженерів світу. O3 і O4-mini продовжують метод навчання, орієнтований на висновки, на якому наголошує серія O, спеціально розроблений як модельна архітектура «думай довше, перш ніж реагувати», щоб ШІ міг не тільки швидко реагувати, але й вирішувати складні та багатоетапні проблеми. Цей дизайн також означає, що OpenAI продовжує рухатися в технічному контексті «більше часу висновків = вища продуктивність» і перевіряє цю гіпотезу в процесі навчання з підкріпленням. Виведення зображень вперше: штучний інтелект може «розуміти діаграми, ескізи та PDF-файли» Найяскравішим оновленням є те, що обидві моделі вперше мають можливості виведення зображень. O3 та O4-mini можуть розуміти та аналізувати зображення, навіть у низькій якості, такі як рукописні дошки, розмиті PDF-файли, ескізи та статистичні діаграми, а також включають багатоетапні процеси міркування. Це означає, що ШІ може не тільки читати текстові інструкції та реагувати на них, а й «думати» логіку та асоціацію, що стоїть за зображенням, рухаючись до справжньої мультимодальної агентської системи. На додаток до покращеного візуального сприйняття, моделі також можуть оперувати зображеннями, такими як обертання, масштабування або обробка деформацій, роблячи зображення частиною ланцюжка висновків і відкриваючи нові рішення кросмодальних проблем. Інтеграція мультитулів: від «чату» до «вирішення завдань» Обидві моделі можуть автономно називати інструменти, надані ChatGPT, включаючи пошук, виконання програм, DALL· E Генерація та аналіз зображень для реалізації інтегрованого процесу від отримання інструкцій, збору інформації до візуального мислення. На відміну від попереднього пасивного виконання логіки використання інструментів, O3 і O4-mini мають автономні можливості прийняття рішень і можуть автоматично вибирати, чи включати такі інструменти, як пошук, виконання програми або генерація зображень, відповідно до характеру проблеми, показуючи робочий процес, близький до робочого процесу експертів-людей. Цей гнучкий спосіб застосування політик також дозволяє моделі динамічно коригувати порядок обробки та вміст на основі вхідних даних, що є важливою віхою на шляху до «сурогатного ШІ». OpenAI також запустила інструмент з відкритим вихідним кодом Codex CLI для розробників, щоб інтегрувати штучний інтелект у локальний термінал, щоб допомогти в написанні та налагодженні коду. Codex CLI тепер має відкритий вихідний код, і відкрита програма грантів на розробку на мільйон доларів. Ціни та доступність: o4-mini має перевагу "високого CP" Ціна API моделі o3 становить 10 доларів США за мільйон вхідних токенів і 40 доларів США вихідних токенів; Для порівняння, O4-MINI коштує лише $1,10 та $4,40, що трохи поступається за продуктивністю, але має переважну перевагу у вартості. Користувачі ChatGPT Plus ($20/місяць), Pro ($200/місяць) та Team доступні вже зараз, а підприємства та навчальні заклади будуть доступні за тиждень. OpenAI наочно демонструє напрямок еволюції «штучного інтелекту висновків» через o3 та o4-mini, не тільки покращуючи мовні можливості, але й вперше інтегруючи розуміння зображень та роботу з інструментами. Ці дві моделі є не просто єдиною точкою оновлення, а й важливим переходом від ChatGPT до проксі-ШІ. Майбутній запуск o3-pro (який буде доступний для користувачів Pro найближчими тижнями) і GPT-5, якщо цей раунд технологічних проривів вдасться інтегрувати, матиме можливість визначити наступне покоління стандартів продуктів штучного інтелекту. Related reports: OpenAI посилює GPT-4o, щоб кинутися на друге місце в рейтингу! Сем Альтман: Краще розуміння людей і написання програм, креативність зростає OpenAI оголошує: Open Agents SDK підтримує MCP, з'єднуючи все послідовно, щоб зробити ще один ключовий крок OpenAI запускає найсильнішу графічну модель: точна інформаційна графіка, мультимодальне введення, реалістичне та важко розрізнене, вбудоване в GPT-4o 〈OpenAI випускає o3 та o4-mini Найсильніші моделі висновків: вміє думати про картинки, автоматично підбирати інструменти, математика, Ця стаття була вперше опублікована в журналі BlockTempo "Dynamic Trend - The Most Influential Blockchain News Media".