Трильйонна проблема AI – Unite.ai


Коли ми вступаємо в 2025 рік, сектор штучного інтелекту стоїть у вирішальній точці перегину. Незважаючи на те, що галузь продовжує залучати безпрецедентний рівень інвестицій та уваги, особливо в генеративному ландшафті , – орієнтовна основа ринкової динаміки припускає, що ми прямуємо до великої зміни в ландшафті ШІ в наступному році.

Складаючи з мого досвіду, що веде стартап AI та спостерігаючи за швидкою еволюцією галузі, я вважаю, що цей рік призведе до багатьох фундаментальних змін: від великих концептуальних моделей (LCMS), як очікується, стане серйозними конкурентами для великих мовних моделей (LLMS), підйому Спеціалізовані апаратні засоби AI, для великих технологічних компаній, що починають основні створення інфраструктури AI, які нарешті поставлять їх у змогу перевершити стартапи, такі як та антроп-і, хто знає, можливо, навіть забезпечити свою монополію AI.

Унікальний виклик компаній AI: ні програмне забезпечення, ні апаратне забезпечення

Основна проблема полягає в тому, як компанії AI працюють у раніше небаченому середньому між традиційним програмним забезпеченням та апаратним бізнесом. На відміну від чистих програмних компаній, які в першу чергу інвестують у людський капітал із відносно низькими операційними витратами, або апаратними компаніями, які роблять довгострокові капітальні інвестиції з чіткими шляхами до прибутку, компанії AI стикаються з унікальним поєднанням викликів, які роблять їх нинішні моделі фінансування невпевненими.

Ці компанії потребують масштабних передових капітальних витрат на кластери та інфраструктуру GPU, витрачаючи 100-200 мільйонів доларів щорічно на обчислювальні ресурси. Але на відміну від апаратних компаній, вони не можуть амортизувати ці інвестиції протягом тривалих періодів. Натомість вони працюють на стиснених дворічних циклах між раундами фінансування, кожен раз, коли потрібно продемонструвати експоненціальний ріст та передові показники, щоб виправдати їх наступну оцінку.

Проблема диференціації LLMS

Додавання до цього структурного виклику є тенденцією: швидка конвергенція можливостей великої мови (LLM). Стартапи, як Єдиноріг МІСТРАЛЬНИЙ АІ та ін, продемонстрували, що моделі з відкритим кодом можуть досягти ефективності Порівняно з їхніми колегами із закритим кодом, але технічна диференціація, яка раніше виправдала високі оцінки, стає все складніше підтримувати.

Іншими словами, хоча кожен новий LLM може похвалитися вражаючими продуктивністю на основі стандартних орієнтирів, справді значний зсув в основній архітектурі моделі не відбувається.

Поточні обмеження в цьому домені випливають з трьох критичних областей: Наявність данихяк у нас не вистачає якісного навчального матеріалу (як підтверджений Елоном Маск нещодавно); Методи кураціїоскільки всі вони застосовують подібні підходи з годування людини, які переносяться OpenAI; і обчислювальна архітектураяк вони покладаються на той самий обмежений пул спеціалізованого обладнання GPU.

Що з’являється – це закономірність, де нагород все частіше випливає з ефективності, а не масштабу. Компанії зосереджуються на стисненні більшої кількості знань на меншу кількість жетонів та розробці кращих інженерних артефактів, таких як системи пошуку, такі як графічні ганчірки (покоління, що вилучається). По суті, ми наближаємось до природного плато, де кидаємо більше ресурсів на проблему, що призводить до зменшення прибутку.

Через безпрецедентні темпи інновацій за останні два роки ця конвергенція можливостей LLM відбувається швидше, ніж хтось передбачав, створюючи гонку проти часу для компаній, які зібрали кошти.

На основі останніх тенденцій досліджень, наступним кордоном для вирішення цього питання є поява Великі концептуальні моделі (LCMS) Як нова, новаторська архітектура, що конкурує з LLMS у їх основному домені, що є природним розумінням мови (NLP).

Технічно кажучи, LCMS матиме кілька переваг, включаючи потенціал для кращої продуктивності з меншою кількістю ітерацій та здатністю досягти подібних результатів з меншими командами. Я вважаю, що ці LCM наступного покоління будуть розроблені та комерціалізовані командами, що відомі, відомі “колишні технології” Mavericks, які засновували нові стартапи, щоб очолити цю революцію.

Невідповідність часу монетизації

Стиснення циклів інновацій створило ще одне критичне питання: невідповідність між монетизацією часу та стійкою монетизацією. Хоча ми бачимо безпрецедентну швидкість у вертикалізації додатків AI-з голосовими агентами AI, наприклад, переходячи від концепції до продуктів, що приносять дохід, лише за місяці-ця швидка комерціалізація маскує глибшу проблему.

Враховуйте це: стартап AI на суму 20 мільярдів доларів сьогодні, швидше за все, повинен буде отримати близько 1 мільярда доларів щорічного доходу протягом 4-5 років, щоб виправдати публіку, що проводиться на розумному кільці. Це вимагає не лише технологічної майстерності, а драматичної трансформації всієї бізнес-моделі, від орієнтованої на НДДКР до продажів, все, зберігаючи темпи інновацій та управління величезними інфраструктурними витратами.

У цьому сенсі нові стартапи, орієнтовані на LCM, які з’являться в 2025 році, будуть в кращих позиціях для залучення фінансування, при цьому нижчі початкові оцінки роблять їх більш привабливими цілями фінансування для інвесторів.

Дефіцит обладнання та нові альтернативи

Давайте детальніше поглянемо на інфраструктуру. Сьогодні кожен новий кластер GPU купується ще до того, як його побудують великі гравці, змушуючи менших гравців або взяти на себе зобов’язання з довгостроковими контрактами з постачальниками хмарних послуг, або ризикується повністю вимкнутись з ринку.

Але ось що насправді цікаво: хоча всі борються за графічні процеси, в апаратному пейзажі спостерігається захоплюючий зсув, який все ще значною мірою не помічається. Нинішня архітектура GPU, що називається GPGPU (GPU загального призначення), неймовірно неефективна для того, що більшість компаній насправді потребують у виробництві. Це як використання суперкомп’ютера для запуску програми калькулятора.

Ось чому я вважаю, що спеціалізоване апаратне забезпечення AI стане наступною великою зміною в нашій галузі. Компанії, як Groq та Cerebras, будують специфічне обладнання, яке стосується виводу, яке в 4-5 разів дешевше діяти, ніж традиційні графічні процесори. Так, є більша вартість інженерії наперед, щоб оптимізувати ваші моделі для цих платформ, але для компаній, що працюють на великих масштабних робочих навантаженнях, підвищення ефективності чіткі.

Щільність даних та зростання менших, розумніших моделей

Перехід до наступного кордону інновацій в AI, ймовірно, потребуватиме не лише більшої обчислювальної потужності – особливо для великих моделей, таких як LCMS – але й багатіші, більш всебічні набори даних.

Цікаво, що менші, ефективніші моделі починають кидати виклик більш великим, використовуючи, як щільно вони навчаються на наявних даних. Наприклад, такі моделі, як ‘s Feefree або Gema2b, працюють з набагато меншою кількістю параметрів – часто приблизно 2 – 3 мільярди – все це досягають рівнів продуктивності, порівнянних із значно більшими моделями з 8 мільярдами параметрів.

Ці менші моделі все більш конкурентоспроможні через високу щільність даних, що робить їх надійними, незважаючи на їх розмір. Цей перехід до компактних, але потужних моделей узгоджується зі стратегічними перевагами, таких як Microsoft та Google Hold: доступ до масивних, різноманітних наборів даних через платформи, такі як Bing та Google Search.

Ця динаміка розкриває дві критичні «війни», що розгортаються в розвитку ШІ: одна над обчислювальною потужністю та іншою над даними. Хоча обчислювальні ресурси є важливими для просування меж, щільність даних стає однаково – якщо не більше – критично. Компанії, які мають доступ до величезних наборів даних, унікально розміщуються для підготовки менших моделей з неперевершеною ефективністю та надійністю, зміцнюючи своє домінування в еволюціонуючому ландшафті ШІ.

Хто виграє війну АІ?

У цьому контексті всі люблять замислюватися, хто в нинішньому пейзажі ШІ найкраще позиціонувати, щоб вийти на перемогу. Ось їжа для роздумів.

Основні технологічні компанії попередньо придбали цілі кластери GPU перед будівництвом, створюючи дефіцитне середовище для менших гравців. Замовлення GPU 100 000+ Oracle і подібні кроки та Microsoft є прикладом цієї тенденції.

Інвестувавши сотні мільярдів в ініціативи AI, цим компаніям потрібні тисячі спеціалізованих інженерів та дослідників AI. Це створює безпрецедентний попит на талант, який можна задовольнити лише за рахунок стратегічних придбань – ймовірно, що в результаті багатьох стартапів поглинається в найближчі місяці.

Хоча 2025 року буде витрачено на масштабні науково-дослідні та інфраструктури для таких акторів, до 2026 року вони зможуть страйкувати, як ніколи, через неперевершених ресурсів.

Це не означає, що менші компанії AI приречені – з нього. Сектор буде продовжувати інновації та створювати цінність. Деякі ключові нововведення в цьому секторі, як -от LCMS, швидше за все, будуть очолювати менші, нові актори в наступному році, поряд з Meta, Google/Alphabet та OpenAI з антропом, усі вони працюють над захоплюючими проектами на даний момент.

Однак ми, швидше за все, побачимо основну реструктуризацію того, як фінансуються та оцінюються компанії AI. У міру того, як венчурний капітал стає більш дискримінаційним, компаніям потрібно буде продемонструвати чіткі шляхи до економіки стійкої одиниці-особливий виклик для підприємств з відкритим кодом, що конкурують з добре облаштованими власними альтернативами.

Зокрема, для компаній з відкритим кодом AI, шлях вперед може вимагати зосередження уваги на конкретних вертикальних додатках, де їхні можливості прозорості та налаштування забезпечують чіткі переваги перед власними рішеннями.



Джерело

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *