Бывший учёный OpenAI Суцкевер запускает SSI для безопасности ИИ

Как опытный криптоинвестор и энтузиаст технологий, проявляющий большой интерес к пересечению искусственного интеллекта (ИИ) и блокчейна, я особенно заинтригован недавним заявлением Ильи Суцкевера, Дэниела Леви и Дэниела Гросса относительно их новой компании Safe Superintelligence. Inc. (SSI). Их приверженность одновременному развитию безопасности и возможностей ИИ является долгожданным глотком свежего воздуха во все более сложной и рискованной ситуации.


Илья Суцкевер, ранее занимавший должность главного научного директора OpenAI, и его коллеги Дэниел Леви, бывший инженер OpenAI, и инвестор Дэниел Гросс основали компанию Safe Superintelligence, Inc. (SSI) с целью одновременного повышения безопасности и возможностей ИИ.

Компания SSI со штаб-квартирой в Пало-Альто и Тель-Авиве стремится продвигать инновации в области искусственного интеллекта (ИИ), уделяя особое внимание обеспечению безопасности во всех своих начинаниях. Основатели компании подчеркивают важность особого внимания к безопасности, гарантируя, что на достижения не будет влиять краткосрочное коммерческое давление.

Я открываю новую компанию:

— Илья Суцкевер (@ilyasut), 19 июня 2024 г.

Илья Суцкевер отметил, что единая концентрация позволяет нам избегать отвлекающих факторов руководства и перерывов в производственном цикле. Кроме того, наша бизнес-структура гарантирует, что безопасность, защищенность и развитие будут защищены от краткосрочного давления рынка.

14 мая Суцкевер расстался с OpenAI после того, как он участвовал в прекращении полномочий генерального директора Сэма Альтмана и его выходе из совета директоров. Вскоре после этого Дэниел Леви также покинул OpenAI.

Дуэт был членами подразделения Superalignment OpenAI, созданного в июле 2023 года с миссией по управлению системами искусственного интеллекта, превосходящими человеческий интеллект, называемыми общим искусственным интеллектом (AGI). К сожалению, OpenAI распустила эту команду после ухода Суцкевера и других исследователей.

Виталик Бутерин, один из соучредителей Ethereum, считает общий искусственный интеллект (AGI) потенциально опасным, но полагает, что опасность перевешивается рисками корпоративной жадности и военного злоупотребления. Между тем, около 2600 лидеров технологической отрасли, в том числе Илон Маск, генеральный директор Tesla, и Стив Возняк, соучредитель Apple, выступают за приостановку разработки искусственного интеллекта на полгода, чтобы оценить его значительные риски.

Как ответственный криптоинвестор, я ценю усилия компаний, которые ставят безопасность превыше всего в разработке возможностей искусственного интеллекта. Эта приверженность этическим соображениям при продвижении технологий искусственного интеллекта достойна восхищения и важна для будущего нашей отрасли.

Смотрите также

2024-06-20 06:44