Бывший учёный OpenAI Суцкевер запускает SSI для безопасности ИИ
Как опытный криптоинвестор и энтузиаст технологий, проявляющий большой интерес к пересечению искусственного интеллекта (ИИ) и блокчейна, я особенно заинтригован недавним заявлением Ильи Суцкевера, Дэниела Леви и Дэниела Гросса относительно их новой компании Safe Superintelligence. Inc. (SSI). Их приверженность одновременному развитию безопасности и возможностей ИИ является долгожданным глотком свежего воздуха во все более сложной и рискованной ситуации.
Илья Суцкевер, ранее занимавший должность главного научного директора OpenAI, и его коллеги Дэниел Леви, бывший инженер OpenAI, и инвестор Дэниел Гросс основали компанию Safe Superintelligence, Inc. (SSI) с целью одновременного повышения безопасности и возможностей ИИ.
Компания SSI со штаб-квартирой в Пало-Альто и Тель-Авиве стремится продвигать инновации в области искусственного интеллекта (ИИ), уделяя особое внимание обеспечению безопасности во всех своих начинаниях. Основатели компании подчеркивают важность особого внимания к безопасности, гарантируя, что на достижения не будет влиять краткосрочное коммерческое давление.
Я открываю новую компанию:
— Илья Суцкевер (@ilyasut), 19 июня 2024 г.
Илья Суцкевер отметил, что единая концентрация позволяет нам избегать отвлекающих факторов руководства и перерывов в производственном цикле. Кроме того, наша бизнес-структура гарантирует, что безопасность, защищенность и развитие будут защищены от краткосрочного давления рынка.
14 мая Суцкевер расстался с OpenAI после того, как он участвовал в прекращении полномочий генерального директора Сэма Альтмана и его выходе из совета директоров. Вскоре после этого Дэниел Леви также покинул OpenAI.
Дуэт был членами подразделения Superalignment OpenAI, созданного в июле 2023 года с миссией по управлению системами искусственного интеллекта, превосходящими человеческий интеллект, называемыми общим искусственным интеллектом (AGI). К сожалению, OpenAI распустила эту команду после ухода Суцкевера и других исследователей.
Виталик Бутерин, один из соучредителей Ethereum, считает общий искусственный интеллект (AGI) потенциально опасным, но полагает, что опасность перевешивается рисками корпоративной жадности и военного злоупотребления. Между тем, около 2600 лидеров технологической отрасли, в том числе Илон Маск, генеральный директор Tesla, и Стив Возняк, соучредитель Apple, выступают за приостановку разработки искусственного интеллекта на полгода, чтобы оценить его значительные риски.
Как ответственный криптоинвестор, я ценю усилия компаний, которые ставят безопасность превыше всего в разработке возможностей искусственного интеллекта. Эта приверженность этическим соображениям при продвижении технологий искусственного интеллекта достойна восхищения и важна для будущего нашей отрасли.
Смотрите также
- Официальный взгляд на Nike SB Dunk Low «Phantom/Hyper Royal»
- Цена на биткойн может увидеть «экстремальный» крах после прорыва диапазона, предупреждает управляющий фондом
- Надувной плот Бэнкси проплыл над толпой IDLES на Гластонбери
- Учетная запись Microsoft India X стала жертвой мошенничества с Roaring Kitty
- Будущее Heroes of Mavia: прогноз цен на криптовалюту MAVIA
- Будущее Radiant Capital: прогноз цен на криптовалюту RDNT
- Токен Smash Хамзата Чимаева сталкивается с обвинениями в инсайдерской торговле
- Даниэль Брюль о своей роли в фильме HBO «Франшиза», идее фильма ужасов, и о кризисе среднего возраста
- Криптомагнат Джастин Сан предлагает купить биткойн-тайник Германии на 2 миллиарда долларов
- Все о EthCC 2024 в Брюсселе: главные мероприятия, которые стоит посетить
2024-06-20 06:44