Компания OpenAI, разработчик ChatGPT, выступает за использование искусственного интеллекта (ИИ) при модерации контента, утверждая, что он может повысить операционную эффективность социальных медиаплатформ за счет ускорения обработки сложных задач.

Компания, работающая в области искусственного интеллекта при поддержке Microsoft, заявила, что ее новейшая модель искусственного интеллекта GPT-4 способна значительно сократить сроки модерации контента с нескольких месяцев до нескольких часов, обеспечивая повышенную согласованность в маркировке.

Модерация контента представляет собой сложную задачу для компаний социальных сетей, таких как Meta, материнская компания Facebook, требующую координации действий многочисленных модераторов по всему миру для предотвращения доступа пользователей к таким вредным материалам, как детская порнография и изображения, содержащие элементы насилия.

"Процесс (модерации контента) по своей природе медленный и может приводить к психическому напряжению модераторов-людей. С помощью этой системы процесс разработки и настройки контентных политик сокращается с нескольких месяцев до нескольких часов".

Согласно заявлению, OpenAI активно изучает возможность использования больших языковых моделей (LLM) для решения этих проблем. Большие языковые модели, такие как GPT-4, обладают способностью понимать и создавать естественный язык, что делает их пригодными для модерации контента. Эти модели способны принимать решения о модерации, руководствуясь заданными политическими рекомендациями.

Изображение, показывающее процесс модерации контента в GPT-4s. Источник: OpenAI
Изображение, показывающее процесс модерации контента в GPT-4s. Источник: OpenAI

Прогнозы GPT-4s позволяют уточнить более мелкие модели для работы с обширными данными. Эта концепция позволяет улучшить модерацию контента по нескольким направлениям, включая согласованность меток, быстрое установление обратной связи и снижение умственной нагрузки.

В заявлении подчеркивается, что в настоящее время OpenAI ведет работу по повышению точности прогнозирования GPT-4. Одним из направлений работы является интеграция рассуждений по цепочке или самокритики. Кроме того, ведутся эксперименты с методами выявления незнакомых рисков на основе конституционного ИИ.

Цель OpenAI - использовать модели для обнаружения потенциально вредного контента на основе широких описаний вреда. Полученные в результате этой работы знания помогут усовершенствовать существующие контентные политики или разработать новые в неизведанных областях риска.

Кроме того, 15 августа генеральный директор OpenAIs Сэм Альтман уточнил, что компания воздерживается от обучения своих моделей ИИ на данных, полученных от пользователей.

Журнал: AI Eye: Apple разрабатывает карманный ИИ, глубокая фальшивая музыкальная сделка, гипнотизирующий GPT-4

Источник