OpenAI формирует наблюдательный совет под руководством Сэма Альтмана

Как исследователь с опытом работы в области искусственного интеллекта и опытом отслеживания событий в этой области, я с большим интересом наблюдаю за недавними шагами OpenAI. Формирование советом директоров Комитета по безопасности и защите является позитивным шагом на пути к решению проблем, связанных с безопасностью и безопасностью их моделей искусственного интеллекта, особенно в свете ухода таких ключевых фигур, как главный научный сотрудник Илья Суцкевер и глава суперконфигурации Ян Лейке.


Примерно через несколько недель после ухода ведущего деятеля OpenAI, отвечающего за безопасность ИИ, компания пересмотрела свою структуру управления и учредила новый комитет совета директоров, которому было поручено оценивать аспекты защиты и защищенности ее передовых моделей ИИ.

Правление OpenAI учреждает комитет по безопасности и защите, которому поручено предоставлять рекомендации по важнейшим вопросам безопасности и защиты для всех инициатив OpenAI.

— OpenAI (@OpenAI), 28 мая 2024 г.

Два предыдущих члена совета директоров, Хелен Тонер и Таша МакКоли, написали критические статьи о лидерстве OpenAI в журнале Economist, вышедшем в минувшие выходные.

Недавно сформированная группа будет оценивать протоколы технологической безопасности OpenAI в течение трех месяцев, прежде чем опубликовать отчет о своих выводах. Согласно сообщению в блоге, опубликованному OpenAI во вторник, компания намерена обнародовать свой ответ на эти рекомендации таким образом, чтобы обеспечить как безопасность, так и прозрачность.

Недавний быстрый прогресс этой частной фирмы в области искусственного интеллекта вызвал обеспокоенность по поводу их подхода к управлению потенциальными рисками, связанными с этой технологией.

Прошлой осенью возникла напряженность между генеральным директором Сэмом Альтманом и соучредителем и главным научным сотрудником Ильей Суцкевером из-за скорости разработки продуктов искусственного интеллекта и мер безопасности. В результате в зале заседаний совета директоров произошла короткая смена власти, во время которой Сэм Альтман был временно отстранен от своей должности.

Как исследователь в этой области, я заметил, что недавние события вызвали новую обеспокоенность в отрасли после ухода двух ключевых фигур в OpenAI: Джеффри Хинтона (Суцкевер) и Яна Лейке. Они возглавили команду суперсогласования, которая занимается устранением потенциальных угроз, исходящих от сверхразумного ИИ. Лейке, решивший уйти, назвал причиной своего решения ограниченность ресурсов, и это мнение разделяли другие уходящие коллеги.

После ухода Суцкевера OpenAI интегрировала его команду в свои всеобъемлющие исследовательские проекты, а не сохраняла ее как отдельную организацию. Соучредитель Джон Шульман занял должность «руководителя отдела выравнивания», расширив свои обязанности в этой области.

Стартап время от времени сталкивался с трудностями в управлении уходом сотрудников. На прошлой неделе OpenAI удалила из своей политики пункт, запрещающий бывшим сотрудникам сохранять свои опционы на акции, если они публично критиковали компанию.

Смотрите также

2024-05-28 21:40