
AMI – Розширений машинний інтелект – Кінець масштабування: Чому Янн ЛеКун більше не вірить у ступінь магістра права – Зображення: Xpert.Digital
Глухий кут замість суперінтелекту: Чому головний провидець Мети зараз звільняється
600 мільярдів за помилковий підхід? «Хрещений батько штучного інтелекту» робить ставку проти LLaMA, ChatGPT та інших.
Ця заява пролунала, як грім, у технологічній галузі у листопаді 2025 року. Янн ЛеКун, один із трьох батьків-засновників глибокого навчання та головний науковий співробітник Meta, оголосив про свій відхід після дванадцяти років роботи в компанії, щоб заснувати власний стартап. Це рішення набагато більше, ніж особистий кар'єрний вибір одного вченого. Воно знаменує собою фундаментальний поворотний момент у світовій індустрії штучного інтелекту та демонструє зростаючий розрив між короткостроковими ринковими інтересами та довгостроковим науковим баченням.
ЛеКун, який отримав премію Тюрінга у 2018 році разом із Джеффрі Хінтоном та Йошуа Бенхіо, вважається архітектором згорткових нейронних мереж, які сьогодні складають основу сучасних систем обробки зображень. Його відхід відбувається в той час, коли вся галузь інвестує сотні мільярдів доларів у великі мовні моделі, технологію, яку ЛеКун роками описував як фундаментальний глухий кут. У своїй новій компанії 65-річний вчений має намір розвивати те, що він називає «Розширеним машинним інтелектом», радикально інший підхід, заснований на моделях світу та починаючи з фізичного сприйняття, а не тексту.
Економічні наслідки цього розвитку величезні. Сама Meta інвестувала понад 600 мільярдів доларів в інфраструктуру штучного інтелекту за останні три роки. OpenAI досяг оцінки в півтрильйона доларів, незважаючи на річний дохід лише в десять мільярдів доларів. Уся галузь рухається в напрямку, який один з її найважливіших піонерів тепер публічно назвав глухим кутом. Щоб зрозуміти економічні наслідки цього зрушення, потрібно глибоко зануритися в технічні, організаційні та фінансові структури сучасної революції штучного інтелекту.
Підходить для цього:
Архітектура бульбашки
Архітектура Transformer, представлена дослідниками Google у 2017 році, безпрецедентно швидко змінила ландшафт штучного інтелекту. Цей підхід вперше дозволив ефективно обробляти величезні обсяги тексту та навчати мовні моделі з раніше недосяжними можливостями. OpenAI розвинув цю основу у своїй серії GPT, яка разом із ChatGPT у листопаді 2022 року вперше продемонструвала масовій аудиторії, чого можуть досягти ці технології. Реакція була вибуховою. Протягом кількох місяців у цей сектор вилилися десятки мільярдів доларів.
Однак, з кінця 2024 року з'являється все більше ознак того, що цей експоненціальний розвиток досягає своїх меж. OpenAI розробляє наступника GPT-4, який всередині компанії називають Orion або GPT-5, вже понад 18 місяців. Повідомляється, що компанія провела щонайменше два великих навчальних запуску, кожен з яких вартістю приблизно 500 мільйонів доларів. Результати були тривожними. Хоча GPT-4 являв собою величезний стрибок у продуктивності порівняно з GPT-3, покращення Orion порівняно з GPT-4 є незначними. У деяких областях, зокрема в програмуванні, модель практично не демонструє прогресу.
Такий розвиток подій принципово суперечить законам масштабування, тим емпіричним принципам, якими донедавна керувалася вся галузь. Основна ідея була простою: якщо зробити модель більшою, використовувати більше даних для навчання та інвестувати більше обчислювальної потужності, збільшення продуктивності відбувається за передбачуваною степеневою функцією. Цей принцип, здавалося, був універсальним і виправдовував астрономічні інвестиції останніх років. Тепер виявляється, що ці криві вирівнюються. Наступне подвоєння інвестицій більше не дає очікуваного подвоєння продуктивності.
Причини цього численні та технічно складні. Ключовою проблемою є стіна даних. GPT-4 було навчено приблизно з 13 трильйонами токенів, що по суті є всім загальнодоступним інтернетом. Для GPT-5 просто недостатньо нових, високоякісних даних. OpenAI відповів, найнявши розробників програмного забезпечення, математиків та фізиків-теоретиків для генерації нових даних шляхом написання коду та розв'язання математичних задач. Однак, навіть якби 1000 людей створювали 5000 слів на день, знадобилися б місяці, щоб згенерувати лише один мільярд токенів. Масштабування з використанням даних, згенерованих людиною, просто не працює.
Як альтернатива, компанії дедалі більше покладаються на синтетичні дані, тобто дані, згенеровані іншими моделями штучного інтелекту. Але тут криється нова небезпека: колапс моделі. Коли моделі рекурсивно навчаються на даних, згенерованих іншими моделями, невеликі помилки посилюються з поколіннями. Результатом є моделі, які дедалі більше відриваються від реальності, і в яких групи меншин у даних непропорційно зникають. Дослідження, опубліковане в Nature у 2024 році, показало, що цей процес відбувається напрочуд швидко. Тому синтетичні дані не є панацеєю, а радше несуть значні ризики.
Енергетичний перехід та межі зростання
Окрім бар'єру даних, існує другий, ще більш фундаментальний бар'єр: енергетичний бар'єр. Навчання GPT-3 споживало приблизно 1300 мегават-годин електроенергії, що еквівалентно річному споживанню 130 американських домогосподарств. GPT-4 потребував приблизно в 50 разів більше, або 65 000 мегават-годин. Обчислювальна потужність, необхідна для навчання великих моделей ШІ, подвоюється приблизно кожні 100 днів. Ця експоненціальна крива швидко призводить до фізичних обмежень.
Центри обробки даних, які навчають та експлуатують ці моделі, вже споживають стільки ж електроенергії, скільки й малі міста. Міжнародне енергетичне агентство прогнозує, що споживання електроенергії центрами обробки даних зросте на 80 відсотків до 2026 року, з 20 терават-годин у 2022 році до 36 терават-годин у 2026 році. Штучний інтелект є основною рушійною силою цього зростання. Для порівняння, один запит ChatGPT споживає приблизно в десять разів більше енергії, ніж пошук у Google. З мільярдами запитів на день це величезна кількість.
Цей розвиток подій змушує технологічні компанії вживати радикальних заходів. Microsoft вже підписала контракти з постачальниками ядерної енергії. Meta, Amazon та Google інвестують загалом понад 1,3 трильйона доларів у найближчі роки у будівництво необхідної інфраструктури. Але ці інвестиції стикаються з фізичними та політичними обмеженнями. У США просто немає достатньої енергетичної інфраструктури для живлення запланованих центрів обробки даних штучного інтелекту. Аналітики оцінюють, що проекти вартістю 750 мільярдів доларів можуть бути відкладені до 2030 року через вузькі місця в енергетичній інфраструктурі.
До цього додається геополітичний вимір. Потреби індустрії штучного інтелекту в енергії загострюють конкуренцію за ресурси та збільшують залежність від викопного палива. Хоча політики вимагають кліматичної нейтральності, індустрія штучного інтелекту збільшує споживання енергії. Ця напруженість посилиться в найближчі роки та може призвести до регуляторного втручання, яке обмежить зростання галузі.
Архітектурна стіна та альтернатива ЛеКуна
Третій бар'єр, мабуть, є найфундаментальнішим: архітектурна стіна. Янн ЛеКун роками стверджував, що архітектура Transformer має притаманні обмеження, які неможливо подолати простим масштабуванням. Його критика зосереджена на фундаментальному принципі роботи моделей великих мов. Ці системи навчені передбачати наступне слово в послідовності. Вони вивчають статистичні закономірності у масивних текстових корпусах, але не розвивають справжнього розуміння причинно-наслідкових зв'язків, фізичних законів чи довгострокового планування.
ЛеКун любить ілюструвати проблему порівнянням: чотирирічна дитина засвоїла більше інформації про світ через візуальне сприйняття, ніж найкращі мовні моделі – через текст. Дитина інтуїтивно розуміє, що предмети не просто зникають, що важкі речі падають, і що дії мають наслідки. У них розвинулася модель світу, внутрішнє представлення фізичної реальності, яке вони використовують для прогнозування та планування дій. Магістрам права бракує цієї фундаментальної здатності. Вони можуть генерувати вражаюче зв'язний текст, але не розуміють світу.
Це обмеження знову і знову стає очевидним у практичних застосуваннях. Якщо ви попросите GPT-4 візуалізувати обертовий куб, він не зможе виконати завдання, яке може легко виконати будь-яка дитина. У складних завданнях, що потребують багатоетапного планування, моделі регулярно дають збій. Вони не можуть надійно навчатися на помилках, оскільки кожна помилка прогнозування токена потенційно накопичується та посилюється. Авторегресивні моделі мають фундаментальну крихкість: помилка на початку послідовності може зруйнувати весь результат.
Альтернативою ЛеКуна є моделі світу, засновані на спільній прогностичній архітектурі спільного вбудовування (Joint Embedding Predictive Architecture). Основна ідея полягає в тому, що системи штучного інтелекту повинні навчатися не через текстове прогнозування, а радше шляхом прогнозування абстрактних представлень майбутніх станів. Замість генерації піксель за пікселем або токен за токеном, система вивчає стиснене, структуроване представлення світу та може використовувати це для подумки моделювати різні сценарії, перш ніж діяти.
Під керівництвом ЛеКуна компанія Meta вже розробила кілька реалізацій цього підходу. I-JEPA для зображень та V-JEPA для відео демонструють багатообіцяючі результати. Ці моделі вивчають компоненти об'єктів високого рівня та їхні просторові зв'язки, не покладаючись на інтенсивний збір даних. Вони також значно енергоефективніші в навчанні, ніж традиційні моделі. Мета полягає в тому, щоб об'єднати ці підходи в ієрархічні системи, які можуть працювати на різних рівнях абстракції та часових шкалах.
Ключова відмінність полягає в характері процесу навчання. У той час як LLM по суті виконують зіставлення зі зразками на стероїдах, моделі світу прагнуть осягнути структуру та причинно-наслідковий зв'язок реальності. Система з надійною моделлю світу може передбачати наслідки своїх дій, фактично не маючи потреби їх виконувати. Вона може навчатися на кількох прикладах, оскільки розуміє основні принципи, а не лише поверхневі кореляції.
Організаційна дисфункція та екзистенційна криза Мети
Однак відхід ЛеКуна є не лише науковим рішенням, а й результатом організаційної дисфункції в Meta. У червні 2025 року генеральний директор Марк Цукерберг оголосив про масштабну реструктуризацію підрозділів штучного інтелекту. Він заснував Meta Superintelligence Labs, новий підрозділ із заявленою метою розробки загального штучного інтелекту. Його очолив Александр Ван, 28-річний колишній генеральний директор Scale AI, компанії з підготовки даних. Meta інвестувала 14,3 мільярда доларів у Scale AI та найняла понад 50 інженерів та дослідників від конкурентів.
Це рішення перевернуло існуючу структуру з ніг на голову. Команда фундаментальних досліджень штучного інтелекту LeCun, яка роками розробляла PyTorch та перші моделі Llama, була маргіналізована. FAIR була орієнтована на фундаментальні дослідження з часовим горизонтом від п'яти до десяти років, тоді як нові лабораторії суперінтелекту зосереджувалися на короткостроковій розробці продуктів. Джерела повідомляють про зростаючий хаос у відділах штучного інтелекту Meta. Новоприйняті провідні фахівці висловлювали розчарування бюрократією великої корпорації, тоді як вплив усталених команд зменшувався.
Ситуація погіршилася через кілька реструктуризацій лише за шість місяців. У серпні 2025 року Superintelligence Labs знову реорганізували, цього разу на чотири підрозділи: загадкову TBD Lab для нових моделей, команду продуктів, команду інфраструктури та FAIR. У жовтні відбулася ще одна хвиля звільнень, під час якої приблизно 600 співробітників отримали вихідну допомогу. Заявлена причина: зменшення організаційної складності та прискорення розробки штучного інтелекту.
Ці постійні реструктуризації різко контрастують з відносною стабільністю таких конкурентів, як OpenAI, Google та Anthropic. Вони вказують на фундаментальну невизначеність Meta щодо правильного стратегічного напрямку. Цукерберг визнав, що Meta відстає в гонці за домінування ШІ. Llama 4, запущена у квітні 2025 року, розчарувала. Хоча модель Maverick продемонструвала хорошу ефективність, вона зазнала суттєвого провалу в триваліших контекстах. З'явилися твердження, що Meta оптимізувала свої моделі для бенчмарків, спеціально навчаючи їх поширеним тестовим питанням, штучно завищуючи продуктивність.
Для ЛеКуна ситуація стала неприйнятною. Його бачення довгострокових фундаментальних досліджень зіткнулося з тиском щодо досягнення короткострокових успіхів у розробці продуктів. Той факт, що він фактично був підлеглим значно молодшому Вангу, ймовірно, сприяв його рішенню. У своїй прощальній записці ЛеКун наголошує, що Meta залишиться партнером у його новій компанії, але послання чітке: незалежні дослідження, які він вважає необхідними, більше неможливі в рамках корпоративних структур.
Новий вимір цифрової трансформації з «керованим ШІ» (штучним інтелектом) – платформа та рішення B2B | Xpert Consulting
Новий вимір цифрової трансформації з «керованим ШІ» (штучним інтелектом) – платформа та рішення B2B | Xpert Consulting - Зображення: Xpert.Digital
Тут ви дізнаєтеся, як ваша компанія може швидко, безпечно та без високих бар'єрів входу впроваджувати індивідуальні рішення на основі штучного інтелекту.
Керована платформа штучного інтелекту — це ваш універсальний та безтурботний пакет для штучного інтелекту. Замість того, щоб мати справу зі складними технологіями, дорогою інфраструктурою та тривалими процесами розробки, ви отримуєте готове рішення, адаптоване до ваших потреб, від спеціалізованого партнера — часто протягом кількох днів.
Основні переваги з першого погляду:
⚡ Швидке впровадження: від ідеї до операційного застосування за лічені дні, а не місяці. Ми пропонуємо практичні рішення, які створюють негайну цінність.
🔒 Максимальна безпека даних: Ваші конфіденційні дані залишаються з вами. Ми гарантуємо безпечну та відповідність вимогам обробку без передачі даних третім особам.
💸 Без фінансових ризиків: Ви платите лише за результат. Повністю виключаються значні початкові інвестиції в обладнання, програмне забезпечення чи персонал.
🎯 Зосередьтеся на своєму основному бізнесі: Зосередьтеся на тому, що ви робите найкраще. Ми беремо на себе повне технічне впровадження, експлуатацію та обслуговування вашого рішення на основі штучного інтелекту.
📈 Орієнтований на майбутнє та масштабований: Ваш ШІ зростає разом з вами. Ми забезпечуємо постійну оптимізацію та масштабованість, а також гнучко адаптуємо моделі до нових вимог.
Детальніше про це тут:
Від ажіотажу до реальності: майбутня переоцінка індустрії штучного інтелекту
Економічна анатомія утворення пухирів
Події в Meta є симптомом ширшої економічної динаміки в індустрії штучного інтелекту. З моменту прориву ChatGPT наприкінці 2022 року розгорнувся безпрецедентний інвестиційний бум. Тільки у першому кварталі 2025 року в стартапи, що займаються штучним інтелектом, надійшло 73,1 мільярда доларів, що становить 58 відсотків усіх венчурних інвестицій. OpenAI досяг оцінки в 500 мільярдів доларів, що зробило її першою приватною компанією, яка перетнула цей поріг, ніколи не будучи прибутковою.
Оцінки разюче не відповідають фактичним доходам. OpenAI генерував 10 мільярдів доларів річного доходу у 2025 році при оцінці в 500 мільярдів доларів, що призвело до співвідношення ціни до обсягу продажів 50. Для порівняння, навіть на піку буму доткомів мало хто з компаній досягав таких мультиплікаторів. Anthropic оцінюється в 170 мільярдів доларів з доходом 2,2 мільярда доларів, що відповідає співвідношенню P/E приблизно 77. Ці цифри свідчать про значне переоцінювання.
Особливо проблематичною є циклічна структура фінансування, що склалася. Nvidia інвестує 100 мільярдів доларів в OpenAI, який, у свою чергу, зобов'язаний придбати чипи Nvidia на десятки мільярдів доларів. OpenAI уклала аналогічні угоди з AMD на десятки мільярдів доларів. Microsoft інвестувала понад 13 мільярдів доларів в OpenAI та розміщує свою інфраструктуру на Azure. Amazon інвестувала 8 мільярдів доларів в Anthropic, яка, натомість, використовує AWS як свою основну хмарну платформу та використовує власні чипи штучного інтелекту Amazon.
Ці домовленості моторошно нагадують циклічне фінансування кінця 1990-х років, коли технологічні компанії продавали одна одній обладнання та враховували транзакції як дохід, не створюючи жодної реальної економічної цінності. Аналітики говорять про дедалі складнішу та непрозорішу мережу ділових відносин, що підживлює трильйонний бум. Паралелі з бульбашкою доткомів та фінансовою кризою 2008 року безпомилкові: непрозорі та нетрадиційні механізми фінансування, які інвесторам важко зрозуміти та оцінити.
До цього додається концентрація капіталу. «Чудова сімка», сім найбільших технологічних компаній США, збільшили споживання енергії на 19 відсотків у 2023 році, тоді як медіанне споживання компаній S&P 500 застоювало. Приблизно 80 відсотків приросту фондового ринку в США у 2025 році було пов'язано з компаніями, пов'язаними зі штучним інтелектом. Сама лише Nvidia стала найбільш купуваною акцією серед роздрібних інвесторів, які інвестували майже 30 мільярдів доларів у виробника чіпів у 2024 році.
Така надзвичайна концентрація несе системні ризики. Якщо очікування щодо прибутковості виявляться нереалістичними, крах ринку може мати далекосяжні наслідки. JPMorgan оцінює, що лише випуск облігацій інвестиційного класу, пов'язаних зі штучним інтелектом, може досягти 1,5 трильйона доларів до 2030 року. Значна частина цього боргу ґрунтується на припущенні, що системи штучного інтелекту забезпечать значне зростання продуктивності. Якщо це очікування не справдиться, назріває кредитна криза.
Підходить для цього:
- Мета робить ставку на суперінтелект: мільярдні інвестиції, мегацентри обробки даних та ризиковані перегони штучного інтелекту
Війна талантів та соціальні потрясіння
Економічна напруженість також проявляється на ринку праці. Співвідношення відкритих вакансій у сфері штучного інтелекту до кваліфікованих кандидатів становить 3,2 до 1. Є 1,6 мільйона відкритих вакансій, але лише 518 000 кваліфікованих кандидатів. Цей надзвичайний дефіцит доводить зарплати до астрономічних висот. Фахівці зі штучного інтелекту можуть додати десятки тисяч доларів до свого річного доходу, набуваючи навичок роботи з Python, TensorFlow або спеціалізованими фреймворками для штучного інтелекту.
Конкуренція жорстка. Великі технологічні компанії, добре фінансовані стартапи та навіть уряди змагаються за ту саму невелику групу експертів. OpenAI за останні місяці пережила відтік керівників, включаючи співзасновника Іллю Суцкевера та головного технічного директора Міру Мураті. Багато з цих талановитих людей запускають власні стартапи або переходять до конкурентів. Meta активно набирає персонал з OpenAI, Anthropic та Google. Anthropic набирає персонал з Meta та OpenAI.
Така динаміка має кілька наслідків. По-перше, вона фрагментує дослідницький ландшафт. Замість того, щоб працювати над досягненням спільних цілей, невеликі команди в різних організаціях конкурують за одні й ті ж прориви. По-друге, це збільшує витрати. Величезні зарплати спеціалістів зі штучного інтелекту є життєздатними лише для добре капіталізованих компаній, що виключає менших гравців з ринку. По-третє, це затримує проекти. Компанії повідомляють, що вакансії залишаються незаповненими місяцями, що порушує терміни розробки.
Суспільні наслідки виходять далеко за межі технологічного сектору. Якщо ШІ справді являє собою наступну промислову революцію, то неминучі масштабні потрясіння на ринку праці. На відміну від першої промислової революції, яка в основному торкнулася фізичної праці, ШІ орієнтований на когнітивні завдання. Під загрозою опинилися не лише прості введення даних та обслуговування клієнтів, але й потенційно висококваліфіковані професії, такі як програмісти, дизайнери, юристи та журналісти.
Дослідження галузі управління інвестиціями прогнозує п'ятивідсоткове зниження частки доходів від праці через штучний інтелект та великі дані. Це можна порівняти зі змінами під час промислової революції, яка спричинила зниження на п'ять-15 відсотків. Ключова відмінність полягає в тому, що нинішня трансформація відбувається протягом років, а не десятиліть. Суспільства мають мало часу для адаптації.
Обчислення під час тестування та зміна парадигми
Хоча закони масштабування для попереднього навчання досягають своїх меж, з'явилася нова парадигма: масштабування обчислень під час тестування. Моделі o1 від OpenAI продемонстрували, що значне підвищення продуктивності можливе шляхом інвестування більшої обчислювальної потужності під час логічного висновку. Замість простого збільшення розміру моделі, ці системи дозволяють моделі довше обмірковувати запит, використовувати кілька підходів до його вирішення та самостійно перевіряти свої відповіді.
Однак дослідження показують, що ця парадигма також має обмеження. Послідовне масштабування, за якого модель повторює одну й ту саму проблему кілька разів, не призводить до постійного вдосконалення. Дослідження таких моделей, як Deepseeks R1 та QwQ, демонструють, що триваліші процеси мислення не призводять автоматично до кращих результатів. Часто модель виправляє правильні відповіді на неправильні, а не навпаки. Здатність до саморедагування, необхідна для ефективного послідовного масштабування, недостатньо розвинена.
Паралельне масштабування, коли одночасно генерується кілька рішень і вибирається найкраще, показує кращі результати. Однак і тут гранична вигода зменшується з кожним подвоєнням інвестованої обчислювальної потужності. Економічна ефективність швидко падає. Для комерційних застосунків, яким потрібно відповідати на мільйони запитів на день, витрати є непомірними.
Справжній прорив може полягати в поєднанні різних підходів. Гібридні архітектури, що поєднують трансформатори з моделями простору станів, обіцяють об'єднати сильні сторони обох. Моделі простору станів, такі як Mamba, пропонують лінійну масштабовану поведінку у виводі, тоді як трансформатори чудово враховують довгострокові залежності. Такі гібридні системи можуть збалансувати рівняння вартості та якості.
Альтернативні архітектури та майбутнє після Трансформерів
Поряд зі світовими моделями з'являється низка альтернативних архітектур, які можуть кинути виклик домінуванню Трансформерів. Моделі простору станів досягли значного прогресу за останні роки. S4, Mamba та Hyena демонструють, що ефективне довгоконтекстне мислення з лінійною складністю можливе. У той час як Трансформери масштабуються квадратично з довжиною послідовності, SSM досягають лінійного масштабування як у навчанні, так і у логічному висновку.
Ці підвищення ефективності можуть бути вирішальними під час розгортання систем штучного інтелекту у виробничих середовищах. Вартість логічного висновку часто недооцінюється. Навчання – це одноразова інвестиція, але логічний висновок виконується безперервно. ChatGPT ніколи не працює в автономному режимі. З мільярдами щоденних запитів навіть невеликі підвищення ефективності призводять до величезної економії коштів. Модель, яка вимагає вдвічі меншої обчислювальної потужності для тієї ж якості, має величезну конкурентну перевагу.
Проблема полягає в розвитку цих технологій. Трансформатори мають майже вісім років переваги та величезну екосистему інструментів, бібліотек та досвіду. Альтернативні архітектури повинні бути не лише технічно досконалішими, а й практично придатними для використання. Історія технологій сповнена технічно досконалих рішень, які зазнали невдачі на ринку через брак відповідної екосистеми.
Цікаво, що китайські конкуренти також покладаються на альтернативні підходи. DeepSeek V3, модель з відкритим вихідним кодом і 671 мільярдом параметрів, використовує архітектуру зі змішаними експертами, в якій на кожен токен активується лише 37 мільярдів параметрів. Модель досягає порівнянної продуктивності із західними конкурентами в бенчмарках, але була навчена за значно меншу ціну. Час навчання склав лише 2,788 мільйона годин на графічному процесорі H800, що значно менше, ніж у порівнянних моделей.
Цей розвиток подій показує, що технологічне лідерство не обов'язково належить найпотужнішим фінансово гравцям. Розумні архітектурні рішення та оптимізації можуть компенсувати переваги в ресурсах. Для глобального ландшафту штучного інтелекту це означає посилення багатополярності. Китай, Європа та інші регіони розробляють власні підходи, які не є просто копіями західних моделей.
Переоцінка та неминуче похмілля
Збіг усіх цих факторів свідчить про неминучу переоцінку індустрії штучного інтелекту. Поточні оцінки базуються на припущенні про безперервне експоненціальне зростання як продуктивності моделей, так і комерційного впровадження. Обидва припущення стають дедалі сумнівнішими. Продуктивність моделей стагнує, тоді як витрати продовжують стрімко зростати. Хоча комерційне впровадження зростає, монетизація залишається складною.
OpenAI, з оцінкою в півтрильйона доларів, повинен зрости щонайменше до 100 мільярдів доларів річного доходу та стати прибутковим у найближчі роки, щоб виправдати свою оцінку. Це означатиме десятикратне збільшення всього за кілька років. Для порівняння, Google знадобилося понад десять років, щоб вирости дохід з 10 мільярдів доларів до 100 мільярдів доларів. Очікування щодо компаній, що займаються штучним інтелектом, нереально завищені.
Аналітики попереджають про потенційне лопання бульбашки штучного інтелекту. Паралелі з бульбашкою доткомів очевидні. Тоді, як і зараз, з'явилися революційні технології з величезним потенціалом. Тоді, як і зараз, існують ірраціонально завищені оцінки та циклічні структури фінансування. Тоді, як і зараз, інвестори виправдовують абсурдні оцінки, стверджуючи, що технології змінять усе, і що традиційні показники оцінки більше не застосовні.
Ключова відмінність: на відміну від багатьох дотком-компаній, сучасні фірми, що займаються штучним інтелектом, мають робочі продукти з реальною цінністю. ChatGPT — це не вигадка, а технологія, яку щодня використовують мільйони людей. Питання не в тому, чи є ШІ цінним, а в тому, чи він достатньо цінний, щоб виправдати поточні оцінки. Відповідь, найімовірніше, ні.
Коли відбудеться переоцінка, вона буде болісною. Венчурні фонди інвестували 70 відсотків свого капіталу в штучний інтелект. Пенсійні фонди та інституційні інвестори зазнають величезних збитків. Значне падіння оцінки ШІ матиме далекосяжні фінансові наслідки. Компанії, які покладаються на дешеве фінансування, раптово зіткнуться з труднощами у залученні капіталу. Проекти будуть зупинені, а персонал звільнений.
Довгострокова перспектива та шлях уперед
Незважаючи на ці похмурі короткострокові перспективи, довгостроковий потенціал штучного інтелекту залишається величезним. Поточний ажіотаж не змінює фундаментальної важливості цієї технології. Питання не в тому, чи виправдає ШІ свою обіцянку, а в тому, як і коли. Перехід ЛеКуна від короткострокової розробки продукту до довгострокових фундаментальних досліджень вказує шлях.
Наступне покоління систем штучного інтелекту, ймовірно, відрізнятиметься від сучасних LLM. Воно поєднуватиме елементи моделей світу, альтернативних архітектур та нових парадигм навчання. Воно менше покладатиметься на масштабування методом грубої сили та більше на ефективні, структуровані представлення. Воно навчатиметься з фізичного світу, а не лише з тексту. І воно розумітиме причинно-наслідковий зв'язок, а не лише кореляції.
Однак це бачення вимагає часу, терпіння та свободи проведення фундаментальних досліджень. Саме ці умови важко знайти в сучасному ринковому середовищі. Тиск на досягнення швидкого комерційного успіху є величезним. Щоквартальні звіти та раунди оцінювання домінують у порядку денному. Довгострокові дослідницькі програми, результати яких можуть бути отримані роками, важко виправдати.
Рішення ЛеКуна заснувати стартап у 65 років – це визначна заява. Він міг би піти на пенсію з усіма почестями та гарантованим місцем в історії. Натомість він обрав тернистий шлях реалізації бачення, яке відкинула галузева провідна публіка. Meta залишиться партнером, а це означає, що його компанія матиме ресурси, принаймні спочатку. Але її справжній успіх залежатиме від того, чи зможе він у найближчі роки продемонструвати, що Advanced Machine Intelligence справді перевершує інших.
Трансформація триватиме роками. Навіть якщо ЛеКун має рацію, і світові моделі фундаментально перевершують інші, їх все одно потрібно розробляти, оптимізувати та індустріалізувати. Екосистему потрібно побудувати. Розробникам потрібно навчитися використовувати нові інструменти. Компаніям потрібно перейти від LLM до нових систем. Ці перехідні фази історично завжди були болісними.
Від ажіотажу до реальності: довгостроковий курс дій у сфері штучного інтелекту
Відхід Яна ЛеКуна з Meta знаменує собою не просто кадрові зміни. Він символізує фундаментальну суперечність між науковим баченням та комерційним прагматизмом, між довгостроковими інноваціями та короткостроковими ринковими вимогами. Поточна революція штучного інтелекту перебуває на переломному етапі. Легкі успіхи масштабування вичерпані. Наступні кроки будуть складнішими, дорожчими та невизначенішими.
Для інвесторів це означає, що надмірні оцінки акцій нинішніх лідерів у сфері штучного інтелекту потребують критичного аналізу. Для компаній це означає, що надії на швидкі дива продуктивності завдяки штучному інтелекту можуть бути марними. Для суспільства це означає, що трансформація буде повільнішою та нерівномірнішою, ніж передбачає хвиля ажіотажу.
Водночас, фундамент залишається міцним. Штучний інтелект — це не швидкоплинна примха, а фундаментальна технологія, яка в довгостроковій перспективі трансформує практично всі сектори економіки. Паралелі з промисловою революцією доречні. Як і тоді, будуть переможці та переможені, ексцеси та корекції, потрясіння та коригування. Питання не в тому, чи досягла архітектура трансформації межі своїх можливостей, а в тому, як виглядатиме наступний етап і хто його формуватиме.
Ставка ЛеКуна на передовий машинний інтелект та моделі світу є сміливою, але вона може виявитися далекоглядною. Через п'ять років ми дізнаємося, чи був відхід від мейнстріму правильним рішенням, чи галузь дотримується обраного курсу. Найближчі роки будуть вирішальними для довгострокового розвитку штучного інтелекту та, як наслідок, для економічного та суспільного майбутнього.
Наш досвід у розвитку бізнесу, продажах та маркетингу в США
Галузевий фокус: B2B, цифровізація (від штучного інтелекту до XR), машинобудування, логістика, відновлювані джерела енергії та промисловість
Детальніше про це тут:
Тематичний центр з аналітичними матеріалами та експертними знаннями:
- Платформа знань про світову та регіональну економіку, інновації та галузеві тенденції
- Збір аналізів, імпульсів та довідкової інформації з наших пріоритетних напрямків
- Місце для експертів та інформації про поточні розробки в бізнесі та технологіях
- Тематичний центр для компаній, які хочуть дізнатися про ринки, цифровізацію та галузеві інновації
Ваш глобальний партнер з маркетингу та розвитку бізнесу
☑ Наша ділова мова - англійська чи німецька
☑ Нове: листування на вашій національній мові!
Я радий бути доступним вам та моїй команді як особистого консультанта.
Ви можете зв’язатися зі мною, заповнивши тут контактну форму або просто зателефонуйте мені за номером +49 89 674 804 (Мюнхен) . Моя електронна адреса: Вольфенштейн ∂ xpert.digital
Я з нетерпінням чекаю нашого спільного проекту.
☑ Підтримка МСП у стратегії, порадах, плануванні та впровадженні
☑ Створення або перестановка цифрової стратегії та оцифрування
☑ Розширення та оптимізація міжнародних процесів продажів
☑ Глобальні та цифрові торгові платформи B2B
☑ Піонерський розвиток бізнесу / маркетинг / PR / Мір
🎯🎯🎯 Скористайтеся перевагами великої, п'ятикратної експертизи Xpert.Digital у комплексному пакеті послуг | BD, R&D, XR, PR та оптимізація цифрової видимості
Скористайтеся перевагами великого, п'ятикратного досвіду Xpert.Digital у комплексному пакеті послуг | Дослідження та розробки, XR, PR та оптимізація цифрової видимості - Зображення: Xpert.Digital
Xpert.digital має глибокі знання в різних галузях. Це дозволяє нам розробити кравці, розроблені стратегії, пристосовані до вимог та проблем вашого конкретного сегменту ринку. Постійно аналізуючи тенденції на ринку та здійснюючи розвиток галузі, ми можемо діяти з передбаченням та пропонувати інноваційні рішення. З поєднанням досвіду та знань ми створюємо додаткову цінність та надаємо своїм клієнтам вирішальну конкурентну перевагу.
Детальніше про це тут:

