Компания OpenAI, разработчик ChatGPT, выступает за использование искусственного интеллекта (ИИ) при модерации контента, утверждая, что он может повысить операционную эффективность социальных медиаплатформ за счет ускорения обработки сложных задач.
Компания, работающая в области искусственного интеллекта при поддержке Microsoft, заявила, что ее новейшая модель искусственного интеллекта GPT-4 способна значительно сократить сроки модерации контента с нескольких месяцев до нескольких часов, обеспечивая повышенную согласованность в маркировке.
Модерация контента представляет собой сложную задачу для компаний социальных сетей, таких как Meta, материнская компания Facebook, требующую координации действий многочисленных модераторов по всему миру для предотвращения доступа пользователей к таким вредным материалам, как детская порнография и изображения, содержащие элементы насилия.
"Процесс (модерации контента) по своей природе медленный и может приводить к психическому напряжению модераторов-людей. С помощью этой системы процесс разработки и настройки контентных политик сокращается с нескольких месяцев до нескольких часов".
Согласно заявлению, OpenAI активно изучает возможность использования больших языковых моделей (LLM) для решения этих проблем. Большие языковые модели, такие как GPT-4, обладают способностью понимать и создавать естественный язык, что делает их пригодными для модерации контента. Эти модели способны принимать решения о модерации, руководствуясь заданными политическими рекомендациями.
Прогнозы GPT-4s позволяют уточнить более мелкие модели для работы с обширными данными. Эта концепция позволяет улучшить модерацию контента по нескольким направлениям, включая согласованность меток, быстрое установление обратной связи и снижение умственной нагрузки.
В заявлении подчеркивается, что в настоящее время OpenAI ведет работу по повышению точности прогнозирования GPT-4. Одним из направлений работы является интеграция рассуждений по цепочке или самокритики. Кроме того, ведутся эксперименты с методами выявления незнакомых рисков на основе конституционного ИИ.
Цель OpenAI - использовать модели для обнаружения потенциально вредного контента на основе широких описаний вреда. Полученные в результате этой работы знания помогут усовершенствовать существующие контентные политики или разработать новые в неизведанных областях риска.
Кроме того, 15 августа генеральный директор OpenAIs Сэм Альтман уточнил, что компания воздерживается от обучения своих моделей ИИ на данных, полученных от пользователей.
Журнал: AI Eye: Apple разрабатывает карманный ИИ, глубокая фальшивая музыкальная сделка, гипнотизирующий GPT-4
Источник