ИИ-стартап Builder.ai оказался фермой индийских программистов

Одна из самых громких афер в мире технологий подошла к концу, стартап Builder.ai, который восемь лет обещал инвесторам революционный искусственный интеллект, оказался обычной фабрикой по ручной сборке приложений.

Компания привлекла почти 500 миллионов долларов, а теперь объявила о банкротстве, оставив позади себя руины доверия и разрушенные надежды.

История началась в 2016 году, когда два индийских предпринимателя представили миру чат-бота по имени «Наташа». Они утверждали, что их искусственный интеллект способен автоматически создавать мобильные приложения по простым текстовым запросам пользователей. Звучало как магия, и инвесторы в это поверили.

Когда миллиарды покупают пустоту

Презентация выглядела убедительно. SoftBank, Microsoft, Insight Partners и другие технологические гиганты выстроились в очередь, чтобы вложить деньги в «будущее разработки». К 2018 году стоимость Builder.ai достигла полутора миллиардов долларов. Компания казалась следующим единорогом, готовым покорить мир.

Но за красивыми демонстрациями скрывалась совершенно другая реальность. Никакой «Наташи» не существовало. Вместо продвинутого искусственного интеллекта сотни индийских программистов вручную обрабатывали каждый запрос клиентов. Они сидели в офисах, получали техническое задание и создавали приложения старым добрым способом — строчка за строчкой кода.

Представьте себе масштаб обмана: инвесторы платили за революционную технологию, а получали обычную аутсорсинговую компанию, притворяющуюся искусственным интеллектом. Это как покупать космический корабль, а получить велосипед с наклейкой NASA.

Худшее было впереди.

Поскольку компания притворялась, что создает приложения автоматически, она не могла обеспечить должное качество ручной работы.

Результат оказался предсказуемым: клиенты получали приложения, напичканные ошибками и часто полностью неработоспособные.

Сотрудникам приходилось работать в условиях постоянного стресса, поддерживая иллюзию автоматизации. Они знали правду, но молчали, понимая, что разоблачение уничтожит не только компанию, но и их рабочие места. Получилась система, где все притворялись, что не знают о притворстве.

Financial Times, которая провела расследование этой истории, обнаружила, что компания также фальсифицировала финансовые прогнозы. Builder.ai систематически завышала свои доходы и перспективы, чтобы привлечь новые инвестиции и поддержать завышенную оценку.

Последние четыре года:

После того как обман начал вскрываться, Builder.ai попыталась спасти ситуацию. Компания начала использовать API сторонних сервисов, пытаясь хотя бы частично автоматизировать процесс создания приложений.

Но было уже слишком поздно — репутация оказалась безнадежно испорчена, а долги накопились критичные.

Четыре года компания находилась в состоянии медленной агонии, пытаясь удержаться на плаву и оправдать хотя бы часть обещаний. Новые инвестиции не поступали, клиенты уходили, а команда разработчиков сокращалась.

История Builder.ai стала символом того, как шумиха вокруг искусственного интеллекта может затуманить здравый смысл даже у опытных инвесторов.

В погоне за следующим технологическим прорывом венчурные фонды забыли о базовой проверке фактов.

Скандал показал, насколько легко можно обмануть даже технологических гигантов, если обещать им магию искусственного интеллекта. Microsoft и SoftBank, компании с многомиллиардными оборотами и армиями экспертов, попались на удочку двух предпринимателей с красивой презентацией.

Сейчас, когда Builder.ai официально объявила о банкротстве, инвесторы подсчитывают убытки.

Почти 500 миллионов долларов превратились в дым, а вместе с ними испарилось и доверие к стартапам, обещающим чудеса ИИ.

Эта история должна стать предупреждением для всей индустрии. В мире, где искусственный интеллект становится новой нефтью, слишком легко поверить в сказки о волшебных алгоритмах.

За каждым «революционным» продуктом стоят обычные люди, и не всегда они делают то, что обещают в презентациях.

Builder.ai доказала, что в эпоху ИИ-бума старый добрый человеческий обман работает не хуже любой нейросети.