Метеорическое восхождение генеративного искусственного интеллекта создало добросовестную технологическую сенсацию благодаря ориентированным на пользователя продуктов, таким как CHATGPT, Dall-E и Lensa. Но бум в удобном для пользователя ИИ появился в сочетании с пользователями, которые, по-видимому, игнорируют или остались в темноте о рисках конфиденциальности, навязанных этими проектами.

Однако в разгар всего этого шумиха международные правительства и основные технологии начинают звучать тревога. Ссылаясь на конфиденциальность и проблемы безопасности, Италия только что внесла временный запрет на CHATGPT, потенциально вдохновляя аналогичный блок в Германии. В частном секторе сотни исследователей ИИ и технических лидеров, в том числе Элон Маск и Стив Возняк, подписали открытое письмо с призыванием шестимесячного моратория по развитию ИИ за пределами масштаба GPT-4.

Относительно быстрое действие, чтобы попытаться обуздать безответственное развитие ИИ, похвально, но более широкий ландшафт угроз, которые ИИ представляет для конфиденциальности и безопасности данных, выходит за рамки одной модели или разработчика. Несмотря на то, что никто не хочет дождь на параде возможностей парадигмы AI, борьба с его недостатками теперь необходимо, чтобы избежать катастрофических последствий.

Ай

Хотя было бы легко сказать, что OpenAI и другие крупные технологические проекты искусственного интеллекта несут единоличную ответственность за проблему конфиденциальности данных AI, субъект был затронут задолго до того, как он вошел в мейнстрим. Скандалы, связанные с конфиденциальностью данных в ИИ, произошли до этого репрессии на CHATGPT - они только в основном произошли от общественного взгляда.

Только в прошлом году, ClearView AI, фирмы по распознаванию лиц, расположенной в AI, используемой тысячами правительств и правоохранительных органов с ограниченными общественными знаниями, было запрещено продавать технологии распознавания лиц частным предприятиям в Соединенных Штатах. ClearView также высадил штраф в размере 9,4 млн. Долл. США в Соединенном Королевстве за свою базу данных о незаконном распознавании лиц. Кто должен сказать, что визуальные проекты искусственного интеллекта, ориентированные на потребителя, такие как Midjourney или другие, не могут использоваться для аналогичных целей?

ClearView AI, техническая фирма по распознаванию лиц, подтвердила, что мое лицо находится в их базе данных. Я отправил им выстрел в голову, и они ответили с этими фотографиями, а также ссылки на то, где они получили фотографии, включая сайт под названием «Insta Stalker». pic.Twitter.com/ff5ajaflg0

- Томас Дейгл (@thomasdaigle) 9 июня 2020 года

Проблема в том, что они уже были. Множество недавних скандалов с глубокимфуксом, включающими порнографию и фальшивые новости, созданные с помощью продуктов AI на уровне потребителей, только усилила срочность, чтобы защитить пользователей от гнусного использования ИИ. Это требует гипотетической концепции цифровой мимики и делает его очень реальной угрозой для повседневных людей и влиятельных общественных деятелей.

Генеративные модели ИИ в основном полагаются на новые и существующие данные для создания и укрепления их возможностей и удобства использования. Это одна из причин, по которой Chatgpt так впечатляет. При этом модель, которая полагается на новые входные данные, необходимо где -то получить эти данные, и часть этого неизбежно будет включать в себя персональные данные людей, использующих их. И этот объем данных может быть легко использован, если централизованные организации, правительства или хакеры получат их.

Итак, с ограниченным объемом комплексного регулирования и противоречивых мнений в отношении развития искусственного интеллекта, что компании и пользователи могут работать с этими продуктами сейчас?

Что могут сделать компании и пользователи

Тот факт, что правительства и другие разработчики поднимают флаги вокруг ИИ, в настоящее время фактически указывает на прогресс от ледниковых темпов регулирования для приложений Web2 и крипто. Но поднятие флагов не то же самое, что и надзор, поэтому поддержание чувства срочности без того, чтобы быть паникером, важно для создания эффективных правил, пока не станет слишком поздно.

Запрет в Италии Chatgpt - не первый удар, который правительства приняли против ИИ. ЕС и Бразилия - все это совершают действия, чтобы санкционировать определенные типы использования и развития ИИ. Аналогичным образом, генеративный потенциал AI для проведения нарушений данных вызвал ранние законодательные действия со стороны канадского правительства.

Вопрос о нарушениях данных искусственного интеллекта довольно серьезна, до такой степени, что Openai даже пришлось вмешаться. Если вы открыли CHATGPT пару недель назад, вы, возможно, заметили, что функция истории чата была отключена. OpenAI временно закрыл эту функцию из -за серьезной проблемы конфиденциальности, где подсказки незнакомцев были раскрыты и выявили информацию о платеже.

В то время как Openai эффективно погасил этот огонь, может быть трудно доверять программам, возглавляемым Giants Web2, сокращающими их команды по этике ИИ, чтобы превентивно поступить правильно.

На общенациональном уровне стратегия развития искусственного интеллекта, которая больше фокусируется на федеративном машинном обучении, также повысит конфиденциальность данных. Федеративное обучение - это совместная техника искусственного интеллекта, которая обучает моделей искусственного интеллекта, когда кто -либо из них не имеет доступа к данным, используя несколько независимых источников для обучения алгоритма с их собственными наборами данных.

На фронте пользователя, стать AI Luddite и отказаться от использования любой из этих программ, в целом не нужна, и, вероятно, будет невозможно довольно скоро. Но есть способы быть умнее в отношении того, к какому генеративному ИИ вы предоставляете доступ в повседневной жизни. Для компаний и малых предприятий, включающих продукты ИИ в свою деятельность, бдительность в отношении того, какие данные вы подаете, алгоритм еще более важна.

Вечнозеленые говорят, что когда вы используете бесплатный продукт, ваши личные данные - это продукт по -прежнему применяется к ИИ. Имея это в виду, может привести к тому, что вы пересмотрите, на какие проекты искусственного интеллекта вы проводите время, и на что вы на самом деле используете его. Если вы участвовали в каждой тенденции в социальных сетях, которая включает в себя кормление фотографий себя на тенистом веб-сайте AI, подумайте о том, чтобы пропустить его.

CHATGPT достиг 100 миллионов пользователей всего через два месяца после его запуска, ошеломляющая фигура, которая явно указывает на то, что наше цифровое будущее будет использовать ИИ. Но, несмотря на эти цифры, ИИ еще не вездесущ. Регуляторы и компании должны использовать это в своих интересах, чтобы создать рамки для ответственного и безопасного развития искусственного интеллекта, а не преследовать после проектов, как только станет слишком большим, чтобы контролировать. В настоящее время в его развитии генеративной разработки ИИ не сбалансирована между защитой и прогрессом, но еще есть время, чтобы найти правильный путь, чтобы убедиться, что пользовательская информация и конфиденциальность остаются на переднем крае.

Райан Патерсон является президентом Unplugged. До начала бразды правления в Unplugged он занимал должность основателя, президента и генерального директора IST Research с 2008 по 2020 год. Он вышел из исследований IST с продажей компании в сентябре 2020 года. Он пробыл два тура в Агентстве Advanced Research Advanced и 12 лет в Корпусе морской пехоты Соединенных Штатов.
Эрик Принс - предприниматель, филантроп и ветеран тюленей военно -морского флота с деловыми интересами в Европе, Африке, на Ближнем Востоке и Северной Америке. Он занимал должность основателя и председателя Frontier Resource Group, а также основателем Blackwater USA - поставщиком мировых решений безопасности, обучения и логистики для правительства США и других организаций - до продажи компании в 2010 году.

Источник