Екс-співробітники OpenAI та Google зажадали надати персоналу право говорити про ризики ШІ

Дата: 2024-06-06 Автор: Oliver Abernathy Категорії: В СВІТІ
news-banner
Нещодавній відкритий лист, підписаний колишніми та діючими фахівцями зі штучного інтелекту (ШІ) з таких компаній, як OpenAI та Google DeepMind, порушує важливе питання про свободу співробітників висловлювати побоювання щодо ризиків ШІ. У зверненні містяться заклики до індустрії дозволити своїм співробітникам відкрито обговорювати потенційні загрози, пов'язані з розвитком та використанням ШІ.

Заклик до Відкритості

Фахівці вимагають, щоб компанії, які працюють у сфері ІІ, надали своїм співробітникам можливість попереджати громадськість про можливі ризики, не побоюючись переслідування. Вони стверджують, що технології ШІ можуть принести значну користь, але також мають серйозні ризики, такі як посилення нерівності, маніпуляції та дезінформація, а також втрата контролю над автономними системами.

Обґрунтування Вимог

Підписанти зазначають, що компанії часто приховують інформацію про можливості та ризики своїх систем, маючи мінімальні зобов'язання щодо надання даних владі і зовсім не звітуючи перед громадянським суспільством. Без ефективного державного нагляду, саме співробітники є одними з небагатьох людей, які можуть притягнути компанії до відповідальності перед суспільством.

Основні принципи

У листі викладено чотири ключові принципи, яких, на думку авторів, мають дотримуватися ШІ-компанії:

1. Відмова від угод, що обмежують право на критику: Компанії не повинні використовувати угоди про нерозголошення (NDA) для обмеження можливості співробітників критикувати технології ШІ.

2. Сприяння анонімному процесу: Компанії повинні підтримувати анонімні канали для співробітників, які бажають повідомити про виявлені ризики.

3. Культура розумної критики: Важливо підтримувати культуру, де критика сприймається як частину процесу поліпшення технологій.

4. Відмова від переслідування співробітників: Компанії не повинні переслідувати співробітників за розголошення інформації про ризики ШІ.

Відкритий лист підписали такі відомі постаті, як колишні співробітники OpenAI Джейкоб Хілтон, Вільям Сондерс, Керрол Уейнрайт, а також фахівці Google DeepMind Рамана Кумар та Ніл Нанда. Ці експерти висловили глибоке занепокоєння поточною ситуацією в індустрії ШІ.

Ситуація в OpenAI

Раніше повідомлялося, що OpenAI змушувала співробітників обирати між збереженням акцій компанії та можливістю публічно критикувати стартап. Генеральний директор OpenAI Сем Альтман підтвердив існування такого пункту, проте заявив, що компанія ніколи не відбирала акції і не планує цього робити, якщо людина не підпише NDA або відмовиться не критикувати стартап.

Звернення експертів до індустрії ІІ наголошує на важливості прозорості та відкритості у питаннях, що стосуються ризиків технологій ШІ. Цей лист закликає компанії створити умови, за яких співробітники зможуть вільно висловлювати свої побоювання, що дозволить суспільству краще розуміти та контролювати розвиток ШІ.
image

Залиште свій коментар