Скандальный ИИ от Маска открывает дверь для потенциальных злоупотреблений
Компания xAI, основанная Илоном Маском, представила на этой неделе новые модели искусственного интеллекта Grok-2 и Grok-2 mini, которые вызвали неоднозначную реакцию. С одной стороны, эти модели предоставляют пользователям широкий спектр возможностей, но, с другой стороны, они, кажется, не уделяют должного внимания вопросам безопасности.
После интеграции генератора изображений Flux в платформу, пользователи начали активно обсуждать его возможности. Этот инструмент позволяет создавать фотореалистичные изображения без ограничений, которыми пользователи могут делиться. На первый взгляд, это звучит заманчиво, но есть и обратная сторона медали. Такой мощный инструмент может использоваться не только для создания безобидных изображений.
Представьте, что любой пользователь может создать изображение, на котором реальный человек совершает неожиданные и, возможно, нежелательные действия. Этот человек может быть изображён с известными брендами, логотипами или даже обнажённым. Ни один водяной знак или другой маркер не укажет на то, что изображение было сгенерировано искусственным интеллектом. Это может привести к различным злоупотреблениям.
Интересно, что даже политически мотивированные или насильственные изображения могут быть созданы без каких-либо ухищрений. Остаётся вопрос: кто будет отвечать за последствия, если такой контент попадет не в те руки? xAI, как поставщик этого инструмента, пока оставляет этот вопрос без ответа.
С другой стороны, Grok-2 и Grok-2 mini также показывают себя весьма мощными языковыми моделями, конкурирующими с известным GPT-4. Но и тут есть свои подводные камни. Модель слишком тесно связана с соцсетью X, и бывает, что она начинает «добавлять» в свои ответы информацию, которая вообще не имеет отношения к вопросу, но зато активно обсуждается на платформе. Эксперты уже подметили этот нюанс, и критика не заставила себя долго ждать.
В общем, xAI, как и Илон Маск, всегда на грани революций, но не всегда эти революции идут по запланированному сценарию. С одной стороны, это удивительные инструменты, которые расширяют границы возможного, с другой — это потенциальные бомбы замедленного действия, готовые взорваться в самый неожиданный момент.
Ранее мы сообщали о том, как испанский суд вынес приговор пятнадцати подросткам, обвиняемым в создании откровенных изображений с помощью современных технологий искусственного интеллекта. Подробности — в этой статье.