Велика гра зі штучним інтелектом: Маск, Альтман, Цукерберг та боротьба Google за домінування у 2025 році
Коротко
Боротьба за домінування штучного інтелекту у 2025 році... defiдев'ятьма лідерами та їхніми компаніями—OpenAI, xAI, Meta, Google, Anthropic, Microsoft, Apple, AWS, NVIDIA та Mistral — кожна з яких використовує різні стратегії для різних моделей, обчислень, розподілу та регулювання.
Штучний інтелект у 2025 році — це не монолітне поле, а поле битви, сформоване жменькою окремих осіб та їхніх організацій. Змагання охоплюють моделі міркувань, ліцензійні угоди, енергоємні обчислювальні кластери та поверхні, де щодня взаємодіють мільярди людей. Бенчмарки розповідають лише одну частину історії; розподіл, права на дані та інфраструктура розкривають решту.
OpenAI Під керівництвом Сема Альтмана, xAI під керівництвом Ілона Маска, Meta під керівництвом Марка Цукерберга та Google під керівництвом Сундара Пічаї та Деміса Хассабіса залишаються на передовій. Навколо них Anthropic, Microsoft, Apple, AWS, NVIDIA та Mistral, кожен з яких має вирішальні важелі впливу. Разом вони defiне темп, економіка та політика раси штучного інтелекту.
Сем Альтман | OpenAI
OpenAI зміцнила свої позиції у серпні 2025 року з випуском GPT-5, єдина архітектура моделі, розроблена для обробки як швидких відповідей, так і розширених міркувань. GPT-5 замінив попередній фрагментований склад, включаючи GPT-4o та o3, і тепер доступний по всьому ChatGPT третій, з обмеженнями використання для безкоштовних користувачів та розширеною ємністю для передплатників Plus та Pro.
Модель демонструє сильніші можливості кодування, математики та мультимодальних технологій, водночас значно зменшуючи галюцинації. Вбудований «маршрутизатор міркувань» динамічно розподіляє обчислення між швидкими та складними завданнями, оптимізуючи роботу розробників та розгортання в підприємстві. Інтегровано з Microsoft GPT-5 безпосередньо в Azure AI Foundry, що надає корпоративним покупцям доступ до повного спектру можливостей через єдину кінцеву точку.
Позиціонуванням GPT-5 одночасно як API для споживачів за замовчуванням та API корпоративного рівня, OpenAI посилила свою подвійну стратегію: масове розповсюдження в поєднанні з глибокою залученістю розробників. Угоди про ліцензування контенту з Reddit та Axel Springer сигналізували про те, що масштабоване розгортання тепер залежить від узгоджених прав на дані так само, як і від продуктивності необробленої моделі.
Елон Маск | xAI
У лютому 2025, xAI представив Grok 3 (Think) та Grok 3 mini (Think) — моделі, навчені за допомогою навчання з підкріпленням для підтримки багатосекундних міркувань, зворотного відстеження та самоперевірки. У бенчмарк-тестах Grok 3 (Think) набрав 93.3% на іспиті AIME, 84.6% на GPQA та 79.4% на LiveCodeBench; Grok 3 mini досяг 95.8% на AIME 2024 та 80.4% на LiveCodeBench, забезпечуючи чудову продуктивність у економічно ефективних завданнях, що потребують багато ресурсів STEM.
За цими моделями стоїть Колос, суперкомп'ютер, розгорнутий у рекордні терміни: xAI створив початковий кластер зі 100 000 графічних процесорів NVIDIA, подвоївши його кількість до 200 000 протягом 92 днів. Ця надмасштабна інфраструктура забезпечує швидкість мислення Grok та забезпечує режим «Думай». На сьогоднішній день xAI продовжує прагнути подвоїти потужності, сигналізуючи про зосередження на необроблених обчисленнях як конкурентному рові.
Такий масштаб дозволяє xAI швидко забезпечувати продуктивність, орієнтовану на логічне мислення. Але швидке розширення призводить до компромісів — корпоративні клієнти оцінюють показники Grok разом із занепокоєннями щодо управління, джерел даних для навчання та системної стабільності.
Марк Цукерберг | Meta
Мета подвоїла зусилля на тези про відкриті ваги з випуском у квітні 2025 року Llama 4Дві моделі — Scout (компактна, з вікном контексту 10 мільйонів токенів) та Maverick (більша та провідна в бенчмарках) — з'явилися в рамках Ліцензійної угоди спільноти, пропонуючи більш вільне використання, ніж альтернативи лише з API, водночас накладаючи обмеження на мегамасштабне комерційне розгортання. Третій варіант, Behemoth, все ще навчається, маючи близько 288 мільярдів активних параметрів та заявлені показники перевершування. GPT-4.5 та Клод Сонне щодо STEM-бенчмарків.
Вбудовані метадані Мета-додаток AI на базі Llama 4 у власній екосистемі — Instagram, Facebook, WhatsApp, Messenger — та в розумних окулярах Ray-Ban Meta. Додаток підтримує голосову та текстову взаємодію, запам’ятовує контекст розмови протягом сеансів і має стрічку «Discover» для швидкого обміну та реміксів.
Ця стратегія робить акцент на глибокому соціальному охопленні в поєднанні з прозорістю моделі. Надаючи доступ до ваги на контрольованих умовах та інтегруючи штучний інтелект в основні платформи та обладнання, Meta прискорює впровадження, хоча обережне ліцензування сигналізує про те, що повна комерційна свобода залишається обмеженою.
Сундар Пічаї | Google
Google має повністю вступив у еру БлизнюківУ 2025 році компанія підтвердила, що Gemini замінить Google Assistant на Android, пристроях Nest та сторонніх інтеграціях, створивши єдиний рівень штучного інтелекту, вбудований в усю екосистему.
Поточний флагман, Близнюки 2.5, доступний у двох варіантах: Pro та Flash. Pro забезпечує розширене міркування з контекстним вікном до одного мільйона токенів, призначеним для складного кодування, досліджень та мультимодальних завдань. Flash робить акцент на швидкості та ефективності, забезпечуючи легкий висновок за нижчою ціною. Обидві моделі доступні через Google AI Studio та корпоративні канали, такі як Vertex AI.
Інтеграція вийшла за межі телефонів. Gemini тепер основа інструментів продуктивності Workspace, що забезпечує контекстуальне мислення в Документах, Таблицях та Gmail, а також поширюється на рекомендації YouTube та генеративний досвід Пошуку. Таке поширення — серед мільярдів користувачів та пристроїв — ілюструє структурну перевагу Google: жодна інша система штучного інтелекту не є так глибоко вбудованою в глобальні щоденні звички.
Даріо Амодей | Антропний
Антропік висунув свою тезу про гібридне мислення з Клодом 3.7 Сонет, опублікований у лютому 2025 року у веб-додатку Anthropic, API, Amazon Bedrock та Vertex AI від Google Cloud. Ця модель поєднує швидку реакцію з глибшим аналізом, дозволяючи користувачам перемикатися в режим «розширеного мислення» з керованими обчислювальними бюджетами — єдиною архітектурою, що обробляє як інстинктивні підказки, так і покрокове мислення. Вона чудово справляється з завданнями кодування, а бенчмарки демонструють помітне підвищення точності в SWE-bench. Перевірені та значні покращення у довгоконтекстних виходах та завдання, засновані на логіці.
Anthropic також представила Claude Code, інструмент командного рядка для «агентної» розробки, який дозволяє Claude запускати код, запускати інструменти та керувати інженерними завданнями безпосередньо з терміналу — наразі доступний у дослідницькому підготовчому режимі разом із версією 3.7 Sonnet.
Окрім технічних інновацій, Anthropic надавала пріоритет безпеці: Claude 3.7 Sonnet захищений Авторизації FedRAMP High та DoD IL4/5 у межах Bedrock, що робить його придатним для регульованих робочих навантажень.
Потім, у травні 2025 року, сімейство Claude розширилося, включивши Sonnet 4 та Opus 4, які пропонують покращене мислення, зменшення скорочень, покращену генерацію коду та «резюме мислення», що висвітлюють обґрунтованість моделі. Серед них Opus 4 класифікується на рівні 3 згідно з внутрішньою класифікацією безпеки Anthropic, що означає значні можливості, що супроводжуються підвищеним контролем.
Сатья Наделла | Microsoft
Microsoft використовує подвійний підхід—продовження розповсюдження Copilot через Office, Windows та Bing, одночасно будуючи власну екосистему моделей. Сімейство моделей малих мов Phi-4, зокрема, версія з 14 мільярдами параметрів та точно налаштована Фі-4-Міркування, забезпечують розширені математичні та логічні можливості з низькою затримкою. Ці моделі спираються на куровані синтетичні набори даних та дистиляцію з більших моделей, перевершуючи набагато складніші моделі в математичних та наукових тестах. Моделі в стилі Phi-4-Reasoning вже доступні через Azure AI Foundry.
MAI від Microsoft Ініціатива ще більше розширює цю автономію. MAI-Voice-1 — це модель генерації експресивного мовлення, яка створює хвилину високоякісного аудіо менш ніж за секунду за допомогою одного графічного процесора. Вона розгорнута в Copilot Daily та Podcasts, а експерименти тривають у Copilot Labs. Її супутник, MAI-1-preview, — це перша повністю внутрішня модель великої мови, навчена у великих масштабах і зараз тестується в LMArena для розмовної продуктивності.
За допомогою таких моделей, як Phi-4 та MAI, Microsoft зменшує свою залежність від OpenAIЦей перехід покращує контроль, гнучкість витрат та стратегічне позиціонування в рамках робочих процесів підприємства.
Тім Кук | Apple
Підхід Apple до Apple Intelligence, представлена на WWDC 2024, зосереджена на глибокому вбудовуванні генеративного штучного інтелекту в iOS, iPadOS, macOS та visionOS без шкоди для конфіденційності користувачів. Система покладається на моделі пристроїв для рутинних завдань, одночасно переносячи більш вимогливу обробку на Private Cloud Compute, безпечний серверний рівень штучного інтелекту, побудований виключно на кремнії Apple. Найважливіше те, що Приватне хмара Compute ніколи не зберігає дані користувачів, а його програмний стек може бути перевірений незалежними експертами.
До кінця 2024 року Apple Intelligence підтримував повсякденні функції — підсумовування повідомлень, уточнення тексту, покращення контекстних відповідей Siri та підтримку швидких команд, що поєднують моделі на пристрої та хмарні моделі. Розгортання розпочалося в жовтні 2024 року та поширилося по всьому світу до весни 2025 року, додавши підтримку мов та доступність в Apple Vision Pro.
Для Apple перегони штучного інтелекту стосуються не бенчмарків передових моделей. Йдеться про надання надійних, конфіденційних даних на мільярдах пристроїв без шкоди для довіри користувачів. Ця архітектура, більше ніж будь-яке місце в рейтингу лідерів, defiунікальне становище Apple у 2025 році.
Енді Джессі | AWS
AWS позиціонує себе як центр корпоративної опори для генеративної гнучкості штучного інтелектуСімейство Nova охоплює точно налаштовані моделі для текстових, графічних, відео, мовних та агентних робочих процесів, усі з яких надаються через єдину платформу Amazon Bedrock. Ці моделі включають Nova Micro, Lite, Pro та нещодавно доступну Nova Premier, кожна з яких пропонує баланс швидкості, вартості та можливостей логічного мислення. Завдяки інструментарію Bedrock вони підтримують парсинг документів, виконання RAG та автоматизацію на рівні інтерфейсу.
Для творчого контенту Nova Canvas забезпечує створення зображень студійної якості з детальним контролем, тоді як Nova Reel обробляє створення відео з функціями налаштування та додавання водяних знаків — все це доступно через API Bedrock.
Мовленнєвий діалог об'єднаний через Нова Соник, яка поєднує розуміння мовлення та генерацію експресивних сигналів в одній моделі з низькою затримкою. Вона обробляє багатомовні розмовні потоки в режимі реального часу, з нюансованим тоном та просодійним відтворенням, що забезпечується завдяки двонаправленому потоковому API Bedrock.
Найважливіше те, що AWS вбудовує оцінювання в конвеєр Nova. Nova LLM як суддя Можливості Amazon SageMaker AI дозволяють порівнювати моделі з людськими судженнями та мінімальною упередженістю, що дозволяє підприємствам вийти за рамки суб'єктивних перевірок та підвищити контроль якості.
Підсумовуючи, AWS будується на нейтральності, а не на власності. Пропонуючи вбудовану кастомізацію, комплексну підтримку модальностей, інструменти агентів та рамки оцінки в Bedrock, AWS дає підприємствам змогу вибирати моделі, що відповідають їхнім власним пріоритетам, без прив'язки до одного постачальника.
Дженсен Хуанг | NVIDIA
NVIDIA залишається основою сучасної інфраструктури штучного інтелекту. GB200 NVL72, побудована система стелажного масштабування навколо суперчіпа Грейс Блеквелл, об'єднує два графічні процесори Blackwell та центральний процесор Grace через з'єднання NVLink 900 Гбіт/с, забезпечуючи до 30× швидший логічний висновок, 4× швидше навчання та 25× кращу енергоефективність порівняно з системами на базі H100, з когерентною пам'яттю, спільно використовуваною між 72 графічними процесорами.
На рівні модулів, суперчіп Grace Blackwell Ultra, що поєднує один процесор Grace з двома графічними процесорами Blackwell Ultra, та до 40 PFLOPS розріджених обчислень, має 1 ТБ уніфікованої пам'яті та високошвидкісну мережу через ConnectX-8 SuperNIC.
Ці технології забезпечують роботу екзафлопсних робочих навантажень штучного інтелекту та тісно пов'язують щільність обчислень з обмеженнями потужності центрів обробки даних. Постачальники хмарних технологій, включаючи CoreWeave, Cohere, IBM та Mistral AI, мають вже розгорнуто GB200 NVL72 інфраструктура в масштабі.
План розвитку чіпів NVIDIA продовжує свій щорічний ритм. Майбутня архітектура Rubin, запуск якої відбудеться у 2026 році, обіцяє до 50 пефафлопс обчислювальної потужності FP4, що подвоїть базовий рівень Blackwell, а за нею у 2028 році з'явиться архітектура Feynman.
Коротко кажучи: NVIDIA задає ритм ери штучного інтелекту. Усі основні гравці — лабораторії, хмарні технології та розробники передових технологій — рухаються в темпі, який задає NVIDIA. Її обчислювальна архітектура все ще defiрозширює межі можливого.
Артур Менш | містраль
Mistral AI стала найсильнішою противагою в Європі американським компаніям. Заснована в Парижі колишніми дослідниками DeepMind та Meta, компанія зосереджується на моделях відкритої ваги за ліцензіями, що дозволяють реалізувати її. Такі моделі, як Містраль Малий, Мікстрал 8×7B та Магістраль Мала розповсюджуються під керуванням Apache 2.0, що дозволяє безкоштовне комерційне використання. Паралельно, більші моделі, такі як Містраль Великий 2, Pixtral та Devstral доступні на умовах дослідницького або корпоративного доступу.
Випуск Magistral у 2025 році ознаменував першу в Європі архітектуру, орієнтовану на міркування, яка пропонувалася як відкрита модель для експериментів, так і версія корпоративного рівня для регульованих секторів. Ця подвійна система ілюструє спробу Mistral збалансувати відкритість з надійністю для підприємств.
Стратегічно, Mistral також втілює європейський цифровий суверенітет. Раунд фінансування серії C у розмірі 1.7 мільярда євро очолює лідер у галузі напівпровідників ASML підвищило оцінку компанії до 11.7 млрд євро та включило ASML до свого стратегічного комітету. Це партнерство позиціонує Mistral не лише як технічного новатора, але й як політичний сигнал про те, що Європа інвестує в незалежну інфраструктуру штучного інтелекту.
Порівняльні рейтинги моделей │ LMArena Insights
On LMArena, краудсорсингова платформа для ранжування, де користувачі голосують попарно між відповідями штучного інтелекту, Gemini 2.5-Pro лідирує на Vision Arena, за ним слідує ChatGPT-4o та GPT-5Порядок відображає вподобання користувача в мультимодальних завданнях, підсилюючи нейронну присутність Google та OpenAI на передовій.
Цей рейтинг розкриває три взаємопов'язані динаміки:
- Розповсюджувальна сила підтримує імпульс. Екосистема Google забезпечує швидке поширення варіантів Gemini, водночас ChatGPTДомінування [використання] зумовлене частим використанням у спільнотах освіти, бізнесу та розробників.
- Розрив між сприйняттям та продуктивністю. GPT-5 і Gemini Pro можуть виграти голоси, але їхній відрив від лідерів залишається невеликим, що свідчить про те, що місце в таблиці лідерів не є виключно функцією початкових можливостей.
- Непрозорий бенчмаркінг. У нещодавньому академічному огляді зазначається, що власні моделі часто отримують більше голосів користувачів і менше видаляють моделі, що призводить до надмірного налаштування під показники рейтингу лідерів, особливо в закритих системах від Google та OpenAI.
Хоча LMArena не надає вичерпного аналізу кодування, міркувань чи проблем, пов'язаних з пошуком, її висновки в категорії «Зір» пропонують уявлення про настрої користувачів у провідних моделях у режимі реального часу.
Загалом, Gemini 2.5-Pro, ChatGPT-4о, і GPT-5 домінують на поточному Horizon. Їхні рейтинги відображають не лише технологічну перевагу, але й посилення зворотного зв'язку щодо охоплення екосистеми, частоти використання та видимості платформи. Менш помітні гравці — моделі відкритої ваги та менші лабораторії — намагаються пробитися, незважаючи на різні заявки, через структурні дисбаланси в доступі та впливі користувачів.
відмова
Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.
про автора
Аліса, відданий журналіст на MPost, спеціалізується на криптовалюті, штучному інтелекті, інвестиціях та широкій сфері Web3. З гострим поглядом на нові тенденції та технології, вона надає всебічне висвітлення, щоб інформувати та залучати читачів до постійно змінюваного ландшафту цифрових фінансів.
інші статті
Аліса, відданий журналіст на MPost, спеціалізується на криптовалюті, штучному інтелекті, інвестиціях та широкій сфері Web3. З гострим поглядом на нові тенденції та технології, вона надає всебічне висвітлення, щоб інформувати та залучати читачів до постійно змінюваного ландшафту цифрових фінансів.



