Бывший учёный OpenAI Суцкевер запускает SSI для безопасности ИИ
Как опытный криптоинвестор и энтузиаст технологий, проявляющий большой интерес к пересечению искусственного интеллекта (ИИ) и блокчейна, я особенно заинтригован недавним заявлением Ильи Суцкевера, Дэниела Леви и Дэниела Гросса относительно их новой компании Safe Superintelligence. Inc. (SSI). Их приверженность одновременному развитию безопасности и возможностей ИИ является долгожданным глотком свежего воздуха во все более сложной и рискованной ситуации.
Илья Суцкевер, ранее занимавший должность главного научного директора OpenAI, и его коллеги Дэниел Леви, бывший инженер OpenAI, и инвестор Дэниел Гросс основали компанию Safe Superintelligence, Inc. (SSI) с целью одновременного повышения безопасности и возможностей ИИ.
Компания SSI со штаб-квартирой в Пало-Альто и Тель-Авиве стремится продвигать инновации в области искусственного интеллекта (ИИ), уделяя особое внимание обеспечению безопасности во всех своих начинаниях. Основатели компании подчеркивают важность особого внимания к безопасности, гарантируя, что на достижения не будет влиять краткосрочное коммерческое давление.
Я открываю новую компанию:
— Илья Суцкевер (@ilyasut), 19 июня 2024 г.
Илья Суцкевер отметил, что единая концентрация позволяет нам избегать отвлекающих факторов руководства и перерывов в производственном цикле. Кроме того, наша бизнес-структура гарантирует, что безопасность, защищенность и развитие будут защищены от краткосрочного давления рынка.
14 мая Суцкевер расстался с OpenAI после того, как он участвовал в прекращении полномочий генерального директора Сэма Альтмана и его выходе из совета директоров. Вскоре после этого Дэниел Леви также покинул OpenAI.
Дуэт был членами подразделения Superalignment OpenAI, созданного в июле 2023 года с миссией по управлению системами искусственного интеллекта, превосходящими человеческий интеллект, называемыми общим искусственным интеллектом (AGI). К сожалению, OpenAI распустила эту команду после ухода Суцкевера и других исследователей.
Виталик Бутерин, один из соучредителей Ethereum, считает общий искусственный интеллект (AGI) потенциально опасным, но полагает, что опасность перевешивается рисками корпоративной жадности и военного злоупотребления. Между тем, около 2600 лидеров технологической отрасли, в том числе Илон Маск, генеральный директор Tesla, и Стив Возняк, соучредитель Apple, выступают за приостановку разработки искусственного интеллекта на полгода, чтобы оценить его значительные риски.
Как ответственный криптоинвестор, я ценю усилия компаний, которые ставят безопасность превыше всего в разработке возможностей искусственного интеллекта. Эта приверженность этическим соображениям при продвижении технологий искусственного интеллекта достойна восхищения и важна для будущего нашей отрасли.
Смотрите также
- Суверенный долг Сальвадора резко вырос, поскольку президент Букеле обещает не брать новых займов в 2025 году
- Совкомбанк акции прогноз. Цена SVCB
- Курс евро прогноз
- Будущее Toncoin: прогноз цен на криптовалюту TON
- Курс доллара прогноз
- Будущее SmarDex: прогноз цен на криптовалюту SDEX
- Bodega и Crocs откажутся от кабриолета «Off The Beatn Path 2.0»
- Будущее биткоина: прогноз цен на криптовалюту BTC
- Будущее Axie Infinity: прогноз цен на криптовалюту AXS
- Будущее Mantle: прогноз цен на криптовалюту MNT
2024-06-20 06:44