Виталик Бутерин предупреждает о рисках ИИ среди лидеров OpenAI

Как исследователь, я разделяю обеспокоенность Виталика Бутерина по поводу развития сверхразумного искусственного интеллекта. Потенциальные риски, связанные с ОИИ, огромны и до конца не изучены. Крайне важно, чтобы мы осторожно подходили к этой технологии и отдавали приоритет культуре и процессам безопасности, а не блестящим продуктам.


Как исследователь, изучающий разработки в области искусственного интеллекта, я не могу не разделить свои опасения, аналогичные тем, которые выразил Виталик Бутерин, соучредитель Ethereum, по поводу быстрого развития сверхразумного искусственного интеллекта. Я называю эту технологию «рискованной» из-за продолжающихся изменений в руководстве OpenAI.

<р>1. Я твердо верю, что разработка сверхразумного ИИ несет в себе значительные риски, с которыми нам следует быть осторожными, и я выступаю против тех, кто выступает за поспешное создание таких продвинутых систем. В ближайшем будущем нет необходимости в серверных фермах стоимостью 7 триллионов долларов.
2. Поддержание надежного сообщества моделей с открытым исходным кодом, работающих на повседневном потребительском оборудовании, имеет важное значение для обеспечения альтернатив, если в будущем мы окажемся в значительной степени зависимыми от более централизованных систем искусственного интеллекта.— Vitalik.eth (@VitalikButerin) 21 мая 2024 г.

Как криптоинвестор, я недавно принял к сведению идеи Виталия, которыми он поделился на платформе X. Он поднял важные вопросы, касающиеся трех основных аспектов искусственного интеллекта (ИИ):

Недавно Ян Лейке, который раньше руководил согласованием в OpenAI, объявил о своем уходе из компании. Он объяснил свое решение существенным разногласием с руководством по поводу их основных целей. По словам Лейке, быстрый прогресс в области искусственного общего интеллекта (AGI) в OpenAI привел к тому, что протоколы безопасности и культура оказались в тени разработки привлекательных продуктов.

Как когнитивный аналитик, я внимательно следил за развитием общего искусственного интеллекта (AGI), который, по прогнозам некоторых экспертов, будет соответствовать когнитивным способностям человека или даже превосходить их. Тем не менее, это потенциальное достижение вселяет во меня трепет, поскольку инсайдеры отрасли предупреждают, что наш мир может быть не готов к таким сверхразумным системам искусственного интеллекта.

В соответствии с точкой зрения Бутерина, я считаю, что важно избегать поспешных реакций или жестоких возмездий при столкновении с противоположными точками зрения.

Бутерин подчеркнул важность открытых моделей, работающих на обычных потребительских устройствах, как защиты от возможности того, что будущее, в котором большинство человеческих мыслей контролируется и фильтруется ограниченным числом корпораций, станет реальностью.

Он заметил: «Эти модели несут значительно меньший риск катастрофы по сравнению с корпоративным высокомерием и военной мощью».

Как аналитик, я бы сказал это так: Бутерин выступает за детальный нормативный подход к моделям ИИ, проводя различие между меньшими и более крупными системами. Он поддерживает более легкое регулирование для небольших моделей, чтобы стимулировать инновации и рост. Однако он выражает обеспокоенность тем, что текущие предложения потенциально могут отнести все модели ИИ к категории крупных, тем самым препятствуя разработке и внедрению более мелких, но эффективных моделей.

Как исследователь, работающий над крупномасштабными моделями машинного обучения, я заметил, что модели примерно с 70 миллиардами параметров попадают в меньший конец спектра. С другой стороны, модели, имеющие около 405 миллиардов параметров, требуют повышенного внимания из-за их значительной сложности.

Смотрите также

2024-05-21 22:13