Microsoft расширяет команду ответственного ИИ до 400 сотрудников

Как опытный криптоинвестор, проявляющий большой интерес к технологиям и их этическим последствиям, я рад видеть, что Microsoft применяет активный подход к обеспечению безопасности и ответственного развертывания своих продуктов искусственного интеллекта. Недавнее увеличение штата команды по безопасности продуктов с искусственным интеллектом является положительным признаком того, что компания уделяет приоритетное внимание прозрачности и подотчетности.


Как аналитик, я бы сказал это так: в прошлом году я заметил, что корпорация Microsoft расширила свой штат в команде по безопасности продуктов искусственного интеллекта, наняв дополнительно 50 человек, в результате чего общая численность персонала достигла 400.

В своем первом отчете о прозрачности искусственного интеллекта, опубликованном в среду, компания сообщила, что примерно половина ее сотрудников полностью привержена этой инициативе. Они подробно описали меры, обеспечивающие этическое внедрение своих предложений, а недавно к команде присоединились и новые сотрудники.

В прошлом году Microsoft распустила свою команду по этике и обществу в рамках более широких мер по сокращению расходов в технологической отрасли. В результате в различных компаниях, включая Google и Meta Platforms, были ликвидированы отделы безопасности и доверия.

Microsoft стремится повысить доверие к своим инструментам искусственного интеллекта после опасений по поводу их способности генерировать необычный и даже вредный контент в результате инцидентов, наблюдавшихся с чат-ботом Copilot в феврале.

Как аналитик, я наткнулся на некоторую информацию, касающуюся Microsoft Copilot Designer, инструмента для создания изображений с использованием искусственного интеллекта. В прошлом месяце я довел этот вопрос до сведения Федеральной торговой комиссии, правления и законодателей, отправив им электронные письма, выразив свою обеспокоенность по поводу недостаточных усилий компании по предотвращению создания изображений насилия и оскорбительных изображений с помощью этого инструмента.

Microsoft полагается на основополагающую методологию, созданную Национальным институтом стандартов и технологий для обеспечения безопасного развертывания систем искусственного интеллекта.

В прошлом году в соответствии с указом президента Джо Байдена мне было поручено разработать руководящие принципы в моем агентстве, подразделении Министерства торговли, относительно этой новой технологии.

Microsoft объявила в своем первоначальном отчете, что они представили тридцать ответственных функций искусственного интеллекта, некоторые из которых усложняют задачу для пользователей, желающих заставить чат-ботов с искусственным интеллектом вести себя необычно.

Как криптоинвестор, я всегда ищу способы защитить свои инвестиции от потенциальных угроз. Одной из таких угроз являются быстрые инъекции или взломы тюрьмы, которые могут манипулировать моделью ИИ и заставить ее вести себя непредсказуемо. Чтобы защититься от этих вредоносных попыток, компании разработали так называемые «мгновенные щиты». Проще говоря, эти щиты действуют как барьер, выявляя и предотвращая преднамеренные попытки помешать нормальному функционированию ИИ.

Смотрите также

2024-05-01 21:56