Группа нынешних и бывших сотрудников OpenAI опубликовала открытое письмо, в котором выразила обеспокоенность быстрым развитием индустрии искусственного интеллекта, несмотря на отсутствие надзора и защиты от разоблачителей для тех, кто хочет высказаться.
«У компаний, занимающихся разработкой искусственного интеллекта, есть серьезные финансовые стимулы избегать эффективного надзора, и мы не считаем, что существующих структур корпоративного управления достаточно, чтобы изменить ситуацию», — пишут сотрудники.
OpenAI, Google, Microsoft, Meta и другие компании возглавляют гонку вооружений генеративного ИИ — рынок, который, по прогнозам, в течение десятилетия превысит $1 трлн, — поскольку компании, казалось бы, в каждой отрасли спешат добавить чат-ботов и агентов на базе ИИ, чтобы не остаться позади конкурентов.
Сотрудники написали, что ИИ-компании обладают существенной непубличной информацией о том, на что способны их технологии, о степени принятых ими мер безопасности и об уровне риска, который технология несет для различных видов вреда.
«Мы также понимаем серьезные риски, связанные с этими технологиями, — написали они. — Компании в настоящее время имеют лишь слабые обязательства делиться частью этой информации с правительствами и никакие — с гражданским обществом. Мы не думаем, что на них можно положиться в плане добровольного обмена информацией».
В письме также подробно излагаются опасения по поводу недостаточной защиты от разоблачителей в индустрии искусственного интеллекта и говорится, что в отсутствие эффективного государственного надзора «сотрудники находятся в относительно уникальном положении для привлечения компаний к ответственности».
«Широкие соглашения о конфиденциальности не позволяют нам высказывать свои опасения, за исключением тех компаний, которые, возможно, не решают эти проблемы, — пишут подписавшиеся. — Обычные меры защиты информаторов недостаточны, поскольку они направлены на противозаконную деятельность, в то время как многие из рисков, которые нас беспокоят, еще не регулируются».