Экс-сотрудники OpenAI и Google потребовали дать персоналу право говорить о рисках ИИ

Дата: 2024-06-06 Автор: Oliver Abernathy Категории: В МИРЕ
news-banner
Недавнее открытое письмо, подписанное бывшими и действующими специалистами по искусственному интеллекту (ИИ) из таких компаний, как OpenAI и Google DeepMind, поднимает важный вопрос о свободе сотрудников выражать опасения по поводу рисков ИИ. В обращении содержатся призывы к индустрии позволить своим сотрудникам открыто обсуждать потенциальные угрозы, связанные с развитием и использованием ИИ.

Призыв к Открытости

Специалисты требуют, чтобы компании, работающие в сфере ИИ, предоставили своим сотрудникам возможность предупреждать общественность о возможных рисках, не опасаясь преследования. Они утверждают, что технологии ИИ могут принести значительную пользу, но также несут серьезные риски, такие как усиление неравенства, манипуляции и дезинформация, а также потеря контроля над автономными системами.

Обоснование Требований

Подписанты отмечают, что компании часто скрывают информацию о возможностях и рисках своих систем, имея минимальные обязательства по предоставлению данных властям и вовсе не отчитываясь перед гражданским обществом. В отсутствие эффективного государственного надзора, именно сотрудники являются одними из немногих людей, которые могут привлечь компании к ответственности перед обществом.

Основные Принципы

В письме изложены четыре ключевых принципа, которых, по мнению авторов, должны придерживаться ИИ-компании:

1. Отказ от соглашений, ограничивающих право на критику: Компании не должны использовать соглашения о неразглашении (NDA) для ограничения возможности сотрудников критиковать технологии ИИ.
   
2. Содействие анонимному процессу: Компании должны поддерживать анонимные каналы для сотрудников, желающих сообщить о выявленных рисках.
   
3. Культура разумной критики: Важно поддерживать культуру, в которой критика воспринимается как часть процесса улучшения технологий.
   
4. Отказ от преследования сотрудников: Компании не должны преследовать сотрудников за разглашение информации о рисках ИИ.

Открытое письмо подписали такие известные фигуры, как бывшие сотрудники OpenAI Джейкоб Хилтон, Уильям Сондерс, Кэрролл Уэйнрайт, а также специалисты Google DeepMind Рамана Кумар и Нил Нанда. Эти эксперты выразили глубокую озабоченность текущей ситуацией в индустрии ИИ.

Ситуация в OpenAI

Ранее сообщалось, что OpenAI заставляла сотрудников выбирать между сохранением акций компании и возможностью публично критиковать стартап. Генеральный директор OpenAI Сэм Альтман подтвердил существование такого пункта, однако заявил, что компания никогда не отбирала акции и не планирует это делать, если человек не подпишет NDA или откажется не критиковать стартап.

Обращение экспертов к индустрии ИИ подчеркивает важность прозрачности и открытости в вопросах, касающихся рисков технологий ИИ. Это письмо призывает компании создать условия, при которых сотрудники смогут свободно высказывать свои опасения, что позволит обществу лучше понимать и контролировать развитие ИИ.
image

Оставьте свой комментарий