О не из Удовольствие писать о бизнесе — это тот редкий момент, когда вы понимаете, что условности меняются прямо у вас на глазах. Это вызывает дрожь по спине. Вы тщеславно начинаете записывать каждую деталь вашего окружения, как будто вы набрасываете первые строки бестселлера. Это случилось недавно с вашим обозревателем в Сан-Франциско, сидящим в первозданном офисе Anthropic, любимца искусственного интеллекта ( ИИ ) сцена. Когда Джек Кларк, один из соучредителей Anthropic, провел аналогию между планом Баруха, попыткой (провалившейся) в 1946 году поставить мировое атомное оружие под И контроль и необходимость глобальной координации для предотвращения распространения вредных ИИ , было то старое знакомое покалывание. Когда предприниматели сравнивают свои творения, даже косвенно, с ядерными бомбами, это кажется поворотным моментом.

Послушайте эту историю.
Наслаждайтесь большим количеством аудио и подкастов на iOS или Андроид.

Ваш браузер не поддерживает элемент

С чата GPT вырвались на сцену в конце прошлого года, не было недостатка в беспокойстве по поводу экзистенциальных рисков, связанных с ИИ. Но это другое. Послушайте некоторых первопроходцев в этой области, и вы поймете, что их меньше беспокоит антиутопическое будущее, когда машины превзойдут людей, и больше опасностей, таящихся в том, что они делают сейчас. Чат GPT является примером «генеративного» ай , который создает человекоподобный контент на основе анализа текстов, изображений и звуков в Интернете. Сэм Альтман, Генеральный директор открытых ИИ стартап, который его создал, заявил в этом месяце на слушаниях в Конгрессе, что вмешательство регулирующих органов имеет решающее значение для управления рисками все более мощных «больших языковых моделей» ( магистр права с) за ботами.

В отсутствие правил некоторые из его коллег в Сан-Франциско говорят, что они уже установили обратные связи с правительственными чиновниками в Вашингтоне. ОКРУГ КОЛУМБИЯ , чтобы обсудить потенциальный вред, обнаруженный при проверке их чат-ботов. К ним относятся токсичные материалы, такие как расизм, и опасные способности, такие как уход за детьми или изготовление бомб. Мустафа Сулейман, соучредитель Inflection ИИ (и член правления Экономистматеринская компания ), планирует в ближайшие недели предложить щедрые вознаграждения хакерам, которые смогут обнаружить уязвимости в цифровом говорящем компаньоне его фирмы, Pi.

Такая осторожность отличает этот зарождающийся технический бум от прошлого — по крайней мере, на первый взгляд. Как обычно, в дело вступает венчурный капитал. Но в отличие от прошлогоднего подхода «двигайся быстро и ломай вещи», сегодня многие презентации стартапов в первую очередь касаются безопасности. Старая пословица Силиконовой долины о регулировании — что лучше попросить прощения, чем разрешения — отброшена. Такие стартапы, как Open ИИ Anthropic и Inflection так стремятся передать идею, что они не будут жертвовать безопасностью только ради того, чтобы заработать деньги, которые они вложили в корпоративные структуры, ограничивающие максимизацию прибыли.

Другой аспект, в котором этот бум выглядит иначе, заключается в том, что стартапы, создающие собственные магистр права мы не стремимся перевернуть существующую иерархию крупных технологий. На самом деле они могут помочь консолидировать его. Это потому, что их отношения с технологическими гигантами, ведущими в гонке за генеративную ИИ являются симбиотическими. Открыть ИИ присоединилась к Microsoft, крупному инвестору, который использует технологии первого для улучшения своего программного обеспечения и поисковых продуктов. Google, принадлежащий Alphabet, владеет значительной долей в Anthropic; 23 мая стартап объявил о своем последнем раунде финансирования в размере 450 миллионов долларов, который включал дополнительные инвестиции от технологического гиганта. Укрепляя свои деловые связи, молодые фирмы полагаются на платформы облачных вычислений крупных технологических компаний для обучения своих моделей океану данных, что позволяет чат-ботам вести себя как собеседники.

Как и стартапы, Microsoft и Google стремятся показать, что они серьезно относятся к безопасности, даже когда яростно сражаются друг с другом в гонке чат-ботов. Они также утверждают, что необходимы новые правила и что международное сотрудничество по надзору магистр права с имеет важное значение. Как у Алфавита Генеральный директор Сундар Пичаи, сказал: ИИ слишком важно, чтобы не регулировать, и слишком важно, чтобы не регулировать должным образом».

Такие инициативы могут быть полностью оправданы рисками дезинформации, манипулирования выборами, терроризма, увольнения и других потенциальных опасностей, которые становятся все более мощными. ИИ модели могут появиться. Тем не менее, стоит иметь в виду, что регулирование также принесет пользу технологическим гигантам. Это связано с тем, что он имеет тенденцию укреплять существующие рыночные структуры, создавая издержки, которые те, кто занимает рынок, легче всего нести, и повышая барьеры для входа.

Это важно. Если крупные технологические компании используют регулирование, чтобы укрепить свои позиции на командных высотах генеративной ИИ , есть компромисс. Гиганты с большей вероятностью развернут технологию, чтобы улучшить свои существующие продукты, чем полностью их заменят. Они будут стремиться защитить свой основной бизнес (корпоративное программное обеспечение в случае Microsoft и поиск в случае Google). Вместо того, чтобы возвестить эру Шумпетеровского творческого разрушения, это послужит напоминанием о том, что крупные действующие лица в настоящее время контролируют инновационный процесс — то, что некоторые называют «творческим накоплением». Технология может оказаться менее революционной, чем могла бы быть.

Лама на свободе

Такой исход не является предрешенным. Одна из диких карт — с открытым исходным кодом ИИ который распространился с марта, когда ЛЛ а Ма , магистр права разработанный Meta, просочился в сеть. В Силиконовой долине уже ходят слухи о том, что разработчики с открытым исходным кодом могут создавать генеративные ИИ модели, почти не уступающие существующим фирменным, и сотые доли стоимости.

Г-н Кларк из Anthropic описывает открытый исходный код ИИ как «очень тревожное понятие». Хотя это хороший способ ускорить внедрение инноваций, его также трудно контролировать, будь то в руках враждебного государства или 17-летнего создателя программ-вымогателей. Такие опасения будут решаться по мере того, как мировые регулирующие органы будут бороться с генеративными ИИ . У Microsoft и Google — и, соответственно, у их первоначальных взносов — гораздо более глубокие карманы, чем у разработчиков с открытым исходным кодом, чтобы справиться со всем, что придумают регулирующие органы. Они также больше заинтересованы в сохранении стабильности системы информационных технологий, которая превратила их в титанов. На этот раз стремление к безопасности и к прибыли может совпасть.

Узнайте больше от Шумпетера, нашего обозревателя глобального бизнеса:
Культурные войны Америки угрожают ее единому рынку (18 мая)
Бастующие писатели, будьте осторожны: Голливуд изменился навсегда (10 мая)
Америке нужен удар в корпоративный зад (3 мая)

Также: Если вы хотите написать Шумпетеру напрямую, напишите ему по адресу [email protected] . А вот и объяснение того, как колонна Шумпетера получила свое название.