ИИ под контролем: кто теперь решает, когда выпускать новые модели OpenAI?

ИИ под контролем: кто теперь решает, когда выпускать новые модели OpenAI?

Недавно компания OpenAI объявила о полной реорганизации своего комитета по безопасности. Этот комитет теперь стал независимой структурой, подчинённой совету директоров.

Одним из ключевых изменений стало то, что комитет получил право приостанавливать релизы моделей искусственного интеллекта (ИИ), если будут обнаружены риски для безопасности. Это решение стало результатом трёхмесячного аудита, в ходе которого были проанализированы существующие меры защиты и подчёркивался растущий интерес к этическим вопросам в развитии ИИ.

Главная особенность новой структуры — её руководитель, Зико Колтер, а также состав комитета, в который вошли Адам Д’Анджело, Пол Накасоне и Николь Селигман. Примечательно, что генеральный директор OpenAI, Сэм Альтман, больше не является членом этого комитета, что подчёркивает независимость принимаемых решений.

Основная задача нового органа — следить за безопасностью предстоящих релизов моделей ИИ. Комитет будет регулярно получать отчёты от руководства OpenAI и контролировать запуск новых технологий. В случае выявления проблем комитет может принять решение об отсрочке релиза. Совет директоров OpenAI также будет получать периодические отчёты о состоянии безопасности и защиты.

Многие эксперты задаются вопросом о том, насколько этот орган действительно независим. Все его участники также входят в совет директоров OpenAI. Это вызывает сомнения по сравнению с наблюдательным советом Meta (запрещенная на территории РФ организация), члены которого не пересекаются с руководством корпорации и принимают независимые решения по вопросам контентной политики.

Новый комитет OpenAI сосредоточен исключительно на безопасности и этике, что отличает его от других надзорных органов. По итогам 90-дневного анализа OpenAI подчеркнула необходимость более активного сотрудничества с другими компаниями в сфере ИИ, а также усиления прозрачности своих разработок. Компания планирует делиться информацией о безопасности и расширять возможности для независимого тестирования своих систем. Однако точные шаги по реализации этих инициатив пока остаются за кадром.

Российские учёные из компании разработали инновационный метод, который позволяет ускорить процесс обучения нейросетей в 15–20 раз. Подробности — в этой статье.


Добавьте «Нескучные технологии» в избранные источники: Яндекс.Дзен, Яндекс.Новости, Google News
По материалам
sociable.co
Exit mobile version