Пользователи искусственного интеллекта по всему миру больше всего опасаются ошибок чат-ботов на основе искусственного интеллекта, а не перспективы потерять работу из-за нейросетей.
Об этом сообщает The Financial Times со ссылкой на данные опроса по использованию ИИ.
Тревогу из-за ошибок которые допускает ИИ (так называемые галлюцинации), испытывают 27% опрошенных. Еще 22% беспокоит угроза потери рабочих мест и влияние на автономию человека. Примерно 16% пользователей обеспокоены тем, как технологии влияют на способность людей к критическому мышлению.
В рамках исследования были проведены интервью с более чем 80 000 пользователей чат-бота Claude от компании Anthropic в 159 странах. Интервью проводили с помощью ИИ-сервиса компании Claude Interviewer.
"Галлюцинации были катастрофой. Я потерял из-за них часы работы", - рассказал предприниматель из Германии.
"Когда я замечаю ошибки ИИ, это потому, что я хорошо разбираюсь в теме… Но если бы тема была для меня чужой, я бы их не заметил, не так ли?" - отметил военнослужащий из Мексики.
Возглавившая исследование, ученая Саффрон Хуан отметила, что существуют очевидные региональные различия в том, как люди относятся к системам ИИ. Например, жители Южной Америки, Африки, Южной и Юго-Восточной Азии смотрят на ИИ гораздо оптимистичнее, чем жители Европы, США или Восточной Азии.
"Наблюдается тенденция: страны с низким и средним уровнем дохода более оптимистичны, чем страны с высоким уровнем дохода, где влияние ИИ более заметно", - сказала Хуан.
Исследователь из Google DeepMind Див Тхакар написал в X, что он "скептически" относится к попытке назвать это научным исследованием, поскольку при использовании ИИ были допущены погрешности в выборке, а короткие вопросы не дали раскрыть тему полностью. Он отметил, что исследователь-человек "потратил бы время на то, чтобы завоевать доверие участников, предоставить пространство для размышлений, самоанализа и противоречий - в этом весь смысл".
Почти половина опрошенных пользователей находилась в Северной Америке или Западной Европе, в то время как некоторые регионы, например Центральная Азия, были представлены всего несколькими сотнями респондентов.
Экономист и директор AI Disclosures Project Илан Штраус подчеркнул, что к выводам исследования следует относиться с долей скептицизма. Исследователи не указали доверительные интервалы - стандартный показатель в опросах для оценки погрешности, а самоотчеты о том, как ИИ повысил продуктивность людей, могут быть ненадежными, добавил он.