Внутренние разногласия в руководстве OpenAI вызвали обеспокоенность относительно устойчивости глобального рынка искусственного интеллекта.
Как сообщает издание Businessinsider, материал, основанный на внутренних документах и более чем 100 интервью, указывает на длительные проблемы с доверием к генеральному директору компании Сэму Альтману.
По данным расследования, часть руководства OpenAI в 2023 году выражала сомнения в его управленческом подходе. В частности, в одном из документов сооснователя Ильи Суцкевера говорилось о проблемах в коммуникации. Публикация Ронана Фэрроу и Эндрю Маранца в The New Yorker сводит претензии к Альтману к одному выводу: часть людей, работавших с ним, считает его уклончивым и ненадежным. Один из бывших членов совета OpenAI формулирует это предельно резко: «Для него правда не является ограничением». Сам упрек не нов. Осенью 2023 года совет директоров OpenAI уволил Альтмана, заявив, что он «не был неизменно откровенен в своих высказываниях и общении». Позднее Альтман вернулся на пост главы компании, а большинство его противников покинули OpenAI.
Разногласия с бывшими коллегами после этого не исчезли. Несколько ИИ-стартапов создали люди, прежде работавшие с Альтманом, а затем ставшие его оппонентами. Самый заметный пример - компания Anthropic, которой руководит бывший топ-менеджер OpenAI Дарио Амодеи. Его неприязнь к Альтману давно стала частью публичного конфликта между выходцами из OpenAI.
Ситуация развивается на фоне стремительного роста индустрии ИИ, где компании оперируют многомиллиардными инвестициями. Эксперты отмечают, что подобные кризисы могут повлиять на дальнейшее формирование глобального рынка.
В докладе Industrial Policy for the Intelligence Age: Ideas to Keep People First компания пишет, что ИИ способен принести значительные выгоды, но одновременно создает серьезные риски. Среди них названы исчезновение рабочих мест и целых отраслей, злоупотребление технологией со стороны злоумышленников, выход ИИ из-под человеческого контроля, использование ИИ государствами и институтами в ущерб демократическим ценностям, а также усиление концентрации власти и богатства в руках корпораций.
OpenAI связывает эти риски с собственной исходной миссией. Компания напоминает, что в 2015 году Альтман и его сооснователи создали некоммерческую структуру именно для того, чтобы помогать сдерживать такие угрозы. Сегодня у OpenAI действует гибридная структура, сочетающая коммерческую и некоммерческую модели управления. В том же докладе компания предлагает и практические меры: изменить налоговые правила, чтобы увеличить сборы с крупных компаний и богатых людей и компенсировать возможное сокращение поступлений от налогов в фонд оплаты труда, если ИИ вытеснит с рынка большое число работников, а также ввести дополнительные налоги для компаний, заменяющих людей ИИ.