Сотрудники OpenAI и Google DeepMind предупреждают о рисках, связанных с ИИ

Как опытный аналитик, внимательно следящий за развитием технологии искусственного интеллекта (ИИ), я разделяю опасения, высказанные группой нынешних и бывших сотрудников в открытом письме. Отсутствие прозрачности и подотчетности в индустрии искусственного интеллекта является серьезной проблемой, которую необходимо решить.


Ряд людей, которые ранее работали в ведущих компаниях, занимающихся искусственным интеллектом, таких как OpenAI от Microsoft и DeepMind от Alphabet, выразили опасения относительно потенциальных опасностей, возникающих в результате развития технологий искусственного интеллекта.

Как аналитик, я выступал за признание права на предупреждение для сотрудников передовых компаний, занимающихся искусственным интеллектом, не основываясь на каких-либо личных опасениях или критике в отношении практики информирования о нарушениях на моем предыдущем или нынешнем рабочем месте.

— Нил Нанда (@NeelNanda5) 4 июня 2024 г.

Как аналитик, я бы перефразировал это следующим образом: я вместе с 13 другими профессионалами написал письмо, опубликованное во вторник, в котором выступает за признание «права на предупреждение» в отношении искусственного интеллекта (ИИ). Тайный характер отрасли – это проблема, которую мы стремимся решить в этом открытом заявлении. Среди нас нынешние и бывшие сотрудники OpenAI, Google DeepMind и Anthropic.

В письме подчеркивается, что компании, занимающиеся искусственным интеллектом, хранят ценные, нераскрытые данные о функциях и опасностях своих технологий. Однако эти организации сталкиваются с минимальным принуждением раскрывать такую ​​информацию как государственному сектору, так и гражданскому обществу. Этот скрытый характер разработок ИИ вызывает беспокойство по поводу потенциальных угроз и негативных последствий, связанных с искусственным интеллектом.

OpenAI защищала свои действия, ссылаясь на свои внутренние механизмы отчетности и тщательное внедрение новых технологий. Напротив, Google хранит молчание по этому вопросу.

Развитие технологий искусственного интеллекта вызывает растущие опасения по поводу его потенциальных опасностей, а нынешний всплеск искусственного интеллекта усиливает эти опасения. Несмотря на публичные обещания обеспечить безопасное развитие ситуации, эксперты и инсайдеры отмечают отсутствие достаточных механизмов мониторинга. В результате инструменты ИИ могут усугубить существующие социальные риски или ввести новые.

В открытом письме излагаются четыре основных принципа: прозрачность, подотчетность и защита сотрудников, высказывающих опасения по поводу безопасности. В письме содержится призыв к корпорациям воздерживаться от введения положений о неунижении достоинства, которые мешают сотрудникам разделять риски, связанные с ИИ. Кроме того, он рекомендует создать каналы для анонимного информирования совета директоров.

Раскрытие письма произошло после ухода ключевых лиц из OpenAI, в том числе эксперта по безопасности Яна Лейке, который выразил опасения по поводу снижения внимания компании к обеспечению безопасности в своих разработках в области искусственного интеллекта. Кроме того, слухи об ограничительной политике в отношении выражения мнений сотрудников усиливают обеспокоенность по поводу прозрачности и прав работников в секторе искусственного интеллекта.

В связи с быстрым развитием искусственного интеллекта будут постоянно возникать требования к ужесточению протоколов безопасности и надежным мерам защиты информаторов в соответствующих обсуждениях в отрасли.

Смотрите также

2024-06-05 09:09