ИИ — страшная экзистенциальная угроза или просто программное обеспечение?

В споре о будущем искусственного интеллекта миллиардеры-инвесторы разделились на два лагеря

Фото: © Unsplash/Igor Omilaev

Миллиардеры-инвесторы эпохи интернета разделились на два лагеря и используют все свое влияние, чтобы решить, как будет развиваться ИИ: с жесткими требованиями к безопасности или в неконтролируемом ритме прогресса. Ставки еще никогда не были так высоки.

Одетый, несмотря на теплый майский день, в строгую черную водолазку и пиджак, Винод Хосла оглядывает переполненный зал в недрах Капитолия США.

Уже с первых слов он дает понять, насколько высоки ставки: «Победа в гонке за ИИ означает экономическую мощь, которая затем позволит вам влиять на общественную политику или идеологию». Его следующая мысль — развитие ИИ в Китае может поставить под угрозу предстоящие выборы в США. Это находит живой отклик у аудитории, состоящей из сотрудников Конгресса и профильных экспертов, которые собрались на однодневную конференцию по вопросам ИИ и обороны, организованную межпартийной организацией Hill & Valley Forum. Влияние ИИ на национальную безопасность, особенно когда речь идет о недружественных Америке странах, является здесь одной из центральных тем. Но слова Хослы сопровождаются призывом к тому, чтобы ограничить использование ведущих американских ИИ-разработок, что сразу же помещает его в контекст более масштабной и ожесточенной дискуссии, которая сейчас идет в Силиконовой долине.

Как сам Хосла — бывший генеральный директор Sun Microsystems и основатель Khosla Ventures, — так и его коллеги-инвесторы и предприниматели в целом сходятся во мнении: искусственный интеллект знаменует технологическую революцию, схожую по масштабам с появлением персональных компьютеров или даже, как утверждает миллиардер и партнер Greylock Рид Хоффман, с изобретением автомобиля или парового двигателя. Виртуальный доктор на каждом смартфоне, бесплатный репетитор для каждого ребенка. ИИ может стать великим уравнителем, дефляционным чит-кодом, который может спасать жизни и снижать уровень бедности. «Мы дадим людям возможность перестать заниматься однообразной утомительной работой, рабским трудом на конвейере по восемь часов в день в течение 40 лет», — говорит 69-летний Винод Хосла.

Но эти мечтания могут обойтись нам очень дорого и повлечь за собой непредвиденные последствия, которые могут оказаться намного хуже, чем те, что сопровождали предыдущие поворотные моменты в истории технологий — например, мы можем прийти к гонке ИИ-вооружений с Китаем. Если появление социальных сетей привело к культурным войнам и использованию «правды» как оружия, то какой сопутствующий ущерб может принести ИИ?

Для Хослы, Хоффмана и еще ряда влиятельных лидеров в сфере технологий возможность смягчить нежелательные, непреднамеренные последствия распространения ИИ сводится к прямолинейному решению: установить контроль над разработкой ИИ и регулировать его использование. С этим согласны гиганты отрасли — Google и Microsoft, а также создатель ChatGPT компания OpenAI, в которую и Хосла, и Хоффман инвестировали на ранних этапах. Мнение о том, что для достижения утопического потенциала ИИ необходимы ограничительные меры, разделяет и президент США Джо Байден, на избирательную кампанию которого эта пара венчурных финансистов отправляет пожертвования. Оно находит отклик и у президента Франции Эммануэля Макрона, который прошлой осенью пригласил Хоффмана на завтрак, чтобы обсудить то, что он называет новым «паровым двигателем разума».

«Как мы можем помочь как можно большему количеству хороших людей, таких как врачи, и как можно меньшему количеству плохих людей, таких как преступники? — задается вопросом 56-летний Хоффман, соучредитель LinkedIn. — Я считаю, что нужно искать самый быстрый способ для ускорения, поддерживая разумный уровень рисков и полностью их осознавая».

Но есть и другая, все более заметная фракция, которая делает все возможное, чтобы помешать Хосле, ­Хоффману и всему, за что они выступают. Ее возглавляет 52-летний Марк Андриссен, соучредитель Netscape и венчурного фонда a16z. Его партнеры и примкнувшая к нему группа апологетов продуктов с открытым кодом — в их числе генеральные директора ИИ-стартапов Hugging Face и Mistral, главный ИИ-разработчик Meta Янн ЛеКун и (временами) генеральный директор Tesla и владелец X Илон Маск — считают разговоры о катастрофах и общенациональных рисках беззастенчивой попыткой первых владельцев ИИ сохранить за собой контроль над отраслью.

«Угрозы безопасности не существует. На текущем уровне развития технологий никаких экзистенциальных рисков нет», — говорит ЛеКун. «Если вы вырвались вперед, то вы начинаете говорить о необходимости регулирования, об опасностях, о том, чтобы все закрыть, — соглашается инвестор в ИИ Мартин Касадо, коллега Андриссена. — Это классический захват при помощи регулирования. Это риторика, которой пользуются, когда хотят остановить процесс».

Вместо этого Андриссен и его союзники представляют себе наилучшие варианты развития событий, в которых ИИ будет предотвращать болезни и раннюю смертность, а у каждого художника и бизнесмена появится свой ИИ-ассистент, помогающий им в работе. Война без кровавых человеческих ошибок будет приводить к меньшему количеству жертв. Произведения искусства и фильмы, дополненные ИИ, станут повсеместными. В вышедшем в прошлом году манифесте, излагающем его взгляды, Андриссен, который отказался от интервью для этой статьи, рисует райскую картину будущего, наполненного ИИ-инструментами с открытым кодом, без замедляющего развитие ИИ регулирования и без законодательных барьеров, работающих в интересах крупных компаний за счет стартапов.

Все три инвестора-миллиардера вошли в этом году в Список Мидаса, объединяющий лучших в мире инвесторов в IT-технологии. Каждый из них — ­Хоффман на восьмом месте, Хосла на девятом и Андриссен на 36-м — попали в список благодаря не связанным с ИИ инвестициям, но их влияние в этой новой категории ощущается наиболее остро.

Каждый из этих влиятельных лидеров предыдущей технологической революции теперь продвигает свои собственные взгляды на то, как будет происходить следующая.

Безопасные инновации или антиконкурентный сговор? Техноутопия или хаос Дикого Запада? Поговорите с любым из самопровозглашенных представителей одного из этих двух лагерей, и вы увидите, что их точки зрения практически всегда противоположны. Участвующие стороны не могут даже согласиться, кто из них кто — каждый считает себя оптимистом. Для «акселерационистов», таких как Андриссен, любой, кто, как Хоффман, хочет притормозить на подходе к сложным участкам, является «замедлителем»; а ученые и лидеры, называющие ИИ экзистенциальной угрозой для человечества, — «фаталисты». Хоффман между тем говорит, что называл себя технооптимистом задолго до того, как Андриссен превратил этот термин в кредо. «Я ценю, что Марк бьет в барабан, — говорит он. — Но я намного тоньше подхожу к вопросам открытого кода, чем он».

В одном они согласны: тот, чьи аргументы возобладают, повлияет на будущее, как выражается Андриссен, «возможно, самого важного — и лучшего — изобретения нашей цивилизации». И в любом случае здесь будет много возможностей для больших дивидендов.

Ястреб, семнадцатикратный участник Списка Мидаса
Фото: Forbes

В мае 2023 года генеральный директор OpenAI Сэм Альтман выступал в Капитолии на заседании подкомитета Сената по вопросам ИИ. Суть его речи: обеспечьте нам регулирование. Для его оппонентов это был долгожданный момент разоблачения. Тремя месяцами ранее Маск, который соучредил и финансировал OpenAI, когда это еще была некоммерческая организация, в своем канале в X громогласно осудил полученные OpenAI многомиллиардные инвестиции от Microsoft. Оторвавшись от своих некоммерческих корней, OpenAI превратилась в «разработчика закрытого кода, ориентированного на максимальную прибыль и фактически подконтрольного Microsoft», — написал Маск.

Хосла и Хоффман, — которые однажды встречались с Альтманом, чтобы обсудить стратегию, но в целом у них разные круги общения, — делают ставку на готовность OpenAI к компромиссу. Независимо от того, разговаривает ли Хоффман с Байденом, папой Франциском или министром торговли США Джиной Раймондо, с которой он часто пересекается в последние месяцы, ему задают одни и те же вопросы: как изменится жизнь наших избирателей благодаря ИИ? что будет с их работой? когда им стоит ожидать изменений к лучшему, а когда — проявлять осторожность? «Вы должны показать, что понимаете, какую игру они ведут, и что вы можете действовать с учетом их целей, — говорит Хоффман. — Если ваше взаимодействие с правительством сводится к тому, чтобы предложить ему не стоять у вас на пути, то вы ему никак не помогаете».

Поток выступлений в подкастах, публикаций на LinkedIn и даже книга, написанная при помощи ИИ, помогают Хоффману, по его словам, показать, что он последователен в своих позициях. Также важно признать, что много кто — от художников и учителей до бизнесменов и ученых — могут не разделять мнение, что развитие ИИ — обязательно хорошо. Благодаря научной фантастике многие воспринимают ИИ как вышедших из-под контроля роботов-убийц или сверхчеловеческий интеллект, который решает уничтожить человечество. «Я глубоко сочувствую тем, у кого такие опасения, — говорит Хоффман. — Но это как говорить: «Я не хочу, чтобы братья Райт поднимались в воздух, пока мы не поймем, как избежать авиакатастроф». Это просто так не работает».

Хосла говорит, что он и Хоффман занимают «очень похожие позиции» в своих взглядах. «Я думаю, что сбалансированный подход лучше для общества, он снижает риски при сохранении преимуществ», — говорит он. Несмотря на то что он выступает соорганизатором фандрайзинговых мероприятий в Силиконовой долине в поддержку избирательной кампании Байдена, в октябре 2023 года он обратился в Бюро авторского права США с комментарием в защиту возможности обучения ИИ-моделей на материалах, защищенных авторским правом (с возможностью отказа).

Но в последнее время Хосла выступает с более мрачными заявлениями, сравнивая работу OpenAI с Манхэттенским проектом, в рамках которого была разработана атомная бомбу. (На X он задал Андриссену прямой вопрос: уж такие разработки вы бы точно не стали делать с открытым исходным кодом?) Хосла утверждает, что если ИИ останется без контроля, то он будет представлять еще большую угрозу безопасности. «Бомба поражает одну зону. А ИИ повлияет на все сферы одновременно», — говорит он.

Хоффмана беспокоит не бомба, а то, что широкодоступная модель ИИ может быть обучена для создания и последующего распространения биологического оружия, способного уничтожить 100 миллионов человек. «Как только такая проблема обретает открытый исходный код, обратно ее уже не вернуть, — говорит он. — Моя позиция такая: давайте разберемся с действительно неотложными вопросами, которые могут серьезно повлиять на миллионы людей. А в остальных случаях можно вернуть джинна обратно в бутылку».

Они считают, что адекватным ответом будет «довольно мягкое» регулирование, такое как октябрьский исполнительный указ Байдена, призывающий к усилению контроля за создателями моделей, включая обмен результатами тестирования и разработку новых стандартов безопасности перед выпуском модели. Но это не устраивает лагерь Андриссена. По их мнению, «Большая четверка» (в первую очередь Google и Microsoft) и «новые доминирующие игроки» (OpenAI и Anthropic, за спинами которых стоят техногиганты) имеют общую цель: сформировать «защищаемый государством картель», который закрепляет их «общую повестку». «Единственными жизнеспособными альтернативами становятся Илон, стартапы и разработчики открытого кода — все они подвергаются спланированным атакам…, а количество защитников постоянно уменьшается», — написал Андриссен на X.

Касадо, который в 2012 году продал сетевой стартап Nicira компании VMware за более чем $1 млрд, эта история, как и Андриссену, хорошо знакома: законодатели, недовольные ростом влияния социальных сетей, таких как Meta, все еще никак не закончат последнюю регуляторную войну.

Марк Андриссен, вошедший в рейтинг в 11-й раз
Фото: Forbes

Вот почему на этот раз многие IT-кампании стараются не раскачивать лодку, даже если они поддерживают идеи открытого кода и стартап-принципы, на которых строилась Силиконовая долина. Они считают, что лучше сейчас самостоятельно установить правила на государственном уровне, чем позволить отдельным штатам, например Калифорнии, вводить собственные законы или, что еще хуже, отдавать инициативу Евросоюзу, который в марте принял первый ограничительный закон об ИИ.

«Даже не перечислить, сколько раз мне говорили: «Мартин, я с тобой согласен, но регулирование все равно будет, поэтому давайте им немного уступим. Мы все равно будем нести потери, так давайте сами решать, какими они будут», — говорит Касадо. «Такие дебаты полезны, потому что они заставляют людей формулировать свои позиции, — отвечает соучредитель Anthropic Джек Кларк. — Силиконовая долина классически слабо вовлекается в обсуждение законодательства, пока не становится слишком поздно».

«Покажи мне, какую выгоду ты предлагаешь, и я скажу, каким будет результат». Эта цитата, приписываемая легендарному инвестору Чарли Мангеру, отражает позицию, которую в этих дебатах занимает фонд Sequoia, как объясняет партнер фонда Пэт Грейди (номер 81 в Списке Мидаса), инвестировавший в репозиторий ИИ-моделей Hugging Face, в OpenAI, а также в работающий с юридическими документами ИИ-стартап Harvey.

Рид Хоффман, одиннадцатикратный ветеран Списка Мидаса
Фото: Forbes

Безусловно, позиции, которые занимают Хоффман, Хосла, Андриссен и другие в отношении идеологии вокруг ИИ, в заметной степени обусловлены их собственными интересами. Инвестиции в размере $50 млн, которые Хосла сделал в OpenAI на раннем этапе, могут в конечном итоге вырасти в 100 раз. Он также вложился в разрабатывающие собственные ИИ-модели компании в Японии и Индии, такие как бангалорский стартап Sarvam AI. Дополнительным преимуществом является создание буфера против влияния Китая. «Мы отчасти поэтому создали Sarvam AI, чтобы создать ИИ-экосистему в нашей стране и не зависеть от Китая или США», — говорит CEO Вивек Рагхаван.

Хоффман инвестировал в некоммерческий OpenAI через свой собственный фонд, а не через свою фирму Greylock. Но у него тесные связи с Microsoft, которая выложила $26 млрд за сделку с LinkedIn, где он занимает место в совете директоров. Он также был ключевым посредником в отношениях Microsoft с OpenAI. За несколько месяцев до того, как техногигант в январе 2023 года инвестировал в стартап миллиарды долларов, Хоффман организовал встречу руководителей обеих компаний, включая Альтмана и главу Microsoft Сатья Наделлу, в доме сооснователя Билла Гейтса. Он также работал с единорогом Adept AI, который привлек $415 млн, в том числе от Greylock, на разработку ИИ-ассистентов для офиса. А в 2022 году Хоффман основал Inflection AI вместе с близким другом и соавтором Google DeepBrain Мустафой Сулейманом, который недавно перешел в Microsoft, чтобы возглавить ИИ-проекты для потребителей.

У Андриссена тоже есть как финансовые, так и идеологические интересы в этом вопросе. Он входит в совет директоров Meta, которая выпустила конкурирующий с GPT-3 продукт Llama с открытым исходным кодом, презентовав последние версии с большим размахом в апреле 2024 года. В декабре прошлого года — в тот же год, когда он приобрел акции OpenAI, — фонд Андриссена a16z возглавил инвестиционный раунд на сумму более $400 млн в наиболее заметного конкурента, работающий с открытым кодом парижский стартап Mistral, который привлекает новое финансирование при оценке в $6 млрд. Фирма отказалась комментировать свои акции OpenAI. В то же время команда из 27 юристов и консультантов составила от имени a16z заявление в Федеральную торговую комиссию FTC и открытое письмо администрации Байдена, предупреждающее о последствиях его исполнительного приказа для стартапов с открытым исходным кодом, таких как Mistral.

Это не помешало лагерю сторонников открытого кода и дерегулирования повсеместно говорить о том, что противник превосходит их по численности. «Пессимисты побеждают. Они гораздо более организованы», — говорит бывший участник Списка Мидаса, инвестор Benchmark Билл Герли, который считает, что Google, Microsoft, OpenAI и Anthropic встревожены тем, насколько быстро их догоняют альтернативные продукты с открытым кодом, ставя под угрозу коммодификации их дорогостоящие разработки.

«В Вашингтоне никто не уделяет целенаправленно время обсуждению новых технологий, за исключением ситуации вокруг Сэма Бэнкман-Фрида», — говорит он, упоминая осужденного бывшего CEO обанкротившейся криптобиржи FTX.

В OpenAI операционный директор Брэд Лайткэп называет такие обвинения пустой болтовней: «Не уверен, что согласился бы, но мы к этому привыкли». Мустафа Сулейман из Microsoft считает, что хотя они могут отклоняться в спорах «на несколько градусов влево или вправо», IT-лидеры, поддерживающие потенциал ИИ, в конечном итоге все в одной лодке. (Google не отреагировал на запрос комментария.) Но обычно дипломатичного Хоффмана высказывания Герли задевают. «Я был бы рад посмотреть, как Билл просидел 11 лет вместе со мной в совете директоров Mozilla и делом бы доказал, что знает, о чем говорит, — отвечает он Forbes, приправляя свои слова ругательством. — Не стоит внезапно становиться проповедником открытого кода только потому, что это помогает твоим инвестициям».

Соблюдение своих интересов, конечно, является важной частью ответственности публичной компании перед своими акционерами, отмечает партнер Index Ventures Майк Вольпи (номер 33 в Списке Мидаса), входящий в совет директоров занимающегося разработкой ИИ-продуктов для бизнеса единорога Cohere. Вольпи говорит, что есть опасность в том, что крупнейшие ИИ-разработчики используют свое влияние, чтобы сразу закрепиться на лидирующих позициях, и считают это «обоснованным» объяснением своей политики. Но он также отмечает, что, являясь самыми популярными поставщиками таких инструментов потребителям, крупные игроки естественным образом начинают искать способы развеять опасения широкой аудитории, которая не убеждена в том, что ИИ — это в целом хорошо. «У них гораздо больше ресуров, но у них и намного больше клиентов», — говорит он.

И, конечно, есть еще Маск. Ярый сторонник открытого исходного кода и временами самый богатый человек в мире, в марте 2023 года призвал приостановить разработку AI-моделей на шесть месяцев по соображениям безопасности — кажется, что пессимистичнее уже некуда. Этого не произошло, и через четыре месяца Маск объявил о создании собственного конкурента OpenAI, X.ai, а затем подал в суд на своих бывших коллег, обвинив их в отклонении от их миссии. (OpenAI отослала нас к мартовскому блогу, где было написано, что компания «намерена отклонить все претензии Илона», и отказалась от дальнейших комментариев.) По состоянию на май X.ai, как сообщается, приближался к оценке в $18 млрд, примерно на уровне с Anthropic.

Как отметил в разговоре с Forbes один из основателей ИИ-компании, находившийся в аудитории во время выступления Хослы в Вашингтоне, есть определенная ирония в том, что те, кто наиболее оптимистичны по поводу возможностей ИИ, часто больше всего беспокоятся о злоупотреблении этими новыми технологиями. Для них ограничение использования ведущих моделей и регулирование на законодательном уровне может означать буквально жизнь или смерть миллионов людей. Их соперники, которые считают эти страхи преувеличенными, возможно, более реалистично оценивают влияние, которое окажет ИИ.

«ИИ — это или страшная экзистенциальная угроза и ведущие AI-разработки должны быть национализированы и милитаризованы прямо сейчас, — написал Андриссен в марте, — либо ИИ — это просто программное обеспечение и математические формулы, а страшилки и лоббирование новых законов нужно прекратить. Уж или одно, или другое».

Андриссен говорил, что, по его мнению, китайские разработчики каждый день загружают обновления от ведущих американских ИИ-компаний. Поэтому ограничение доступа к моделям — это как заколотить дверь в дом, когда воры уже внутри. Он считает, что вместо этого США должны использовать свою «полную мощь», чтобы продвигать американские разработки в области ИИ, включая их экспорт в Китай.

Для Хоффмана и тех, кто поддерживает регулирование, способность других стран использовать модели в качестве оружия не является поводом оставлять «ключи в замке зажигания танка», как выразился Кларк из Anthropic. Ограничивая доступ к передовым моделям, США могут не предотвратить создание противником своих моделей, не говоря уже о том, чтобы их использовать. Однако это может заставить их играть в догонялки, утверждает Хосла. «Я не поддерживаю аргумент о том, что кота уже выпустили из мешка», — говорит он. А что касается глобального влияния, как он добавляет, множество AI-инструментов с открытым кодом будут по-прежнему доступны, а остальные могут продаваться по лицензии. «Остальной мир следует за тем, что происходит в США».

Будущее невероятных инноваций с невообразимо сложными последствиями.

Или искусственно ограниченное пространство технологий, где развитие инноваций сдерживается чрезмерной осторожностью. Ни одна из сторон не считает рисуемое другой будущее реалистичным; обе спорят, что если их ожидания оправдаются, то и выбор делать не придется.

Энни Ламонт, инвестор, возвращающийся в Список Мидаса впервые с 2015 года
Фото: Forbes

Но все разделяют чувство необходимости действовать быстро, будь то в направлении диалога с законодателями или же для защиты менее крупных игроков, которые рискуют остаться позади. Фей-Фей Ли, одна из пионеров в этой отрасли и сопредседатель Института человекоцентрического искусственного интеллекта Стэнфордского университета, говорит, что она чувствует «неподдельную тревогу» по поводу того, как регулирование может повлиять на образовательные и общественные инициативы. «Даже в тропическом лесу время от времени большие деревья должны находить способы пропускать солнечный свет к нижнему уровню для того, чтобы было больше цветов», — предупреждает Ли.

Хоффман более оптимистичен. «Игра уже идет, и мы все хотим, чтобы в результате человечество извлекло из нее пользу, — отвечает он и добавляет: — Я думаю, что пока еще очень рано делать выводы и любой, кто думает, что знает, какой должны быть политика в отношении ИИ, обманывает или себя, или вас. Нам нужно искать пути вместе».

Список Мидаса

Восемь участников после периода отсутствия возвращаются в рейтинг лучших венчурных инвесторов мира. Ниже представлен топ-20 списка. Полный рейтинг на Forbes.

1. Альфред Лин

Фирма: Sequoia

Значимая сделка: Openai

Город: Сан-Франциско

2. Мики Малка

Ribbit Capital

Coinbase

Пало-Альто, Калифорния

3. Нил Шен

Hongshan

Bytedance

Гонконг

4. Навин Чаддха

Mayfield Fund

Poshmark

Саратога, Калифорния

5. Сатиш Дхармарадж

Redpoint Ventures

Snowflake

Саратога, Калифорния

6. Крис Диксон

Andreessen Horowitz

Coinbase

Менло-Парк, Калифорния

7. Фред Уилсон

Union Square

Ventures Coinbase

Нью-Йорк, Нью-Йорк

8. Рид Хоффман

Greylock

Airbnb

Пало-Альто, Калифорния

9. Винод Хосла

Khosla Ventures

Openai

Портола-Вэлли, Калифорния

10. Хемант Танеджа

General Catalyst

Applied Intuition

Пало-Альто, Калифорния

11. Ролоф Бота

Sequoia

Mongodb

Менло-Парк, Калифорния

12. Питер Тиль

Founders Fund

Palantir

Лос-Анджелес

13. Ричард Лю

5y

Capital Xpeng

Пекин

14. Рэнди Глейн

Dfj Growth

Spacex

Лос-Альтос, Калифорния

15. Дэвид Франкел

Founder Collective

Seatgeek

Бруклайн, Массачусетс

16. Эрик Вишриа

Benchmark

Cerebras

Атертон, Калифорния

17. Майкл Спейсер

Sutter Hill Ventures

Snowflake

Сан-Франциско

18. Лусиана Ликсандру

Sequoia

Uipath

Лондон

19. Питер Фентон

Benchmark

Airtable

Сан-Франциско

20. Бен Сан

Primary Venture Partners

Coupang

Нью-Йорк, Нью-Йорк