нейросети
-
В компании OpenAI изучают различные варианты получения прибыли, включая возможное размещение рекламы в ChatGPT. Организация рассматривает эту возможность, но подходит к вопросу крайне осторожно. По его словам, внедрение рекламных механизмов…
Подробнее » -
Свежее исследование выявило тревожную особенность искусственного интеллекта — способность улавливать скрытые закономерности в данных, генерированных другими нейросетевыми моделями. Эти неочевидные для человека сигналы могут провоцировать опасное поведение алгоритмов. Эксперименты, проведённые…
Подробнее » -
Последние исследования показывают, что системы искусственного интеллекта не только способны обманывать, но и могут представлять гораздо более серьёзную опасность. Об этом заявил Роман Ямпольский, специалист по кибербезопасности и исследователь ИИ.…
Подробнее » -
Технологии искусственного интеллекта, такие как ChatGPT, созданные компанией OpenAI, вызывают растущую озабоченность среди специалистов, которые отмечают потенциальную угрозу для психического здоровья пользователей. Согласно публикации журнала Rolling Stone, пользователи Reddit делятся…
Подробнее » -
Гендиректор Anthropic Дарио Амодей высказал озабоченность по поводу того, что современные ИИ-технологии остаются недостаточно понятными. Несмотря на впечатляющие результаты работы ИИ, таких как составление резюме финансовых документов, механизмы принятия решений…
Подробнее » -
Стэнфордские исследователи и организация Common Sense Media опубликовали доклад, предупреждающий об опасности ИИ-компаньонов для подростков. По их данным, чат-боты, имитирующие человеческое общение, могут нанести серьёзный вред психике пользователей младше 18…
Подробнее » -
Новое исследование выявило очередной этап эволюции дипфейков. Оно показало, что новейшее поколение синтетических видео больше не выдаёт себя отсутствием человеческого пульса. Это означает, что один из ключевых биомаркеров, ранее использовавшийся…
Подробнее » -
Исследователи из компании HiddenLayer, специализирующейся на безопасности ИИ, обнаружили новый эффективный метод взлома крупных языковых моделей. Этот метод позволяет заставить модели генерировать вредоносный контент, включая инструкции по созданию оружия массового…
Подробнее » -
Недавнее исследование рассматривает влияние использования генеративного искусственного интеллекта (ИИ) на рабочем месте на навыки критического мышления. Его авторы подчеркивают потенциальную опасность чрезмерной зависимости от технологий, которая может привести к деградации…
Подробнее » -
Ученые из Калифорнийского университета в Беркли создали искусственный интеллект «Tiny Zero», функционально аналогичный модели DeepSeek R1, но с гораздо меньшими затратами. Эта новость поднимает вопрос о доступности передовых AI-систем и…
Подробнее »









