В мире, где все большее место занимает искусственный интеллект, блокчейн может сыграть решающую роль в предотвращении широкого распространения и нормализации грехов, совершаемых такими приложениями, как Facebook.
Платформы искусственного интеллекта, такие как ChatGPT и Google`s Bard, вошли в обиход, и их уже обвиняют в том, что они разжигают политический раскол своей предвзятостью. Как было предсказано в таких популярных фильмах, как "Терминатор", "Матрица" и совсем недавно - "Миссия невыполнима - Мертвая расплата, часть первая", так и стало: Невыполнима - Мертвая расплата", уже стало очевидным, что ИИ - это дикий зверь, которого нам, скорее всего, не удастся приручить.
От дезинформационных кампаний, убивающих демократию, и беспилотников-убийц до полного уничтожения частной жизни - ИИ может потенциально изменить глобальную экономику и, вероятно, саму цивилизацию. В мае 2023 г. мировые технологические лидеры написали открытое письмо, которое попало в заголовки газет и в котором предупредили, что опасность технологий ИИ может сравняться с ядерным оружием.
Одним из наиболее серьезных опасений, связанных с ИИ, является недостаточная прозрачность его обучения и программирования, особенно в моделях глубокого обучения, которые трудно экспроприировать. Поскольку для обучения моделей ИИ используются конфиденциальные данные, ими можно манипулировать, если эти данные будут скомпрометированы.
В ближайшие годы блокчейн будет широко использоваться наряду с искусственным интеллектом для повышения прозрачности, подотчетности и проверяемости процесса принятия решений.
Chat GPT будет высмеивать Иисуса, но не Мухаммеда pic.Twitter.com/LzMXBcdCmw
- E (@ElijahSchaffer) 2 сентября 2023 г.
Например, при обучении модели искусственного интеллекта на основе данных, хранящихся в блокчейне, можно гарантировать происхождение и целостность данных, предотвращая их несанкционированную модификацию. Заинтересованные стороны могут отслеживать и проверять процесс принятия решений, записывая в блокчейн параметры обучения модели, обновления и результаты проверки.
В этом случае блокчейн будет играть ведущую роль в предотвращении непреднамеренного использования ИИ не по назначению. Но как быть с преднамеренным? Это гораздо более опасный сценарий, с которым, к сожалению, мы, скорее всего, столкнемся в ближайшие годы.
Даже без искусственного интеллекта централизованные "большие технологии" исторически способствовали и способствуют поведению, приносящему прибыль за счет манипулирования людьми и демократическими ценностями в интересах того, кто больше заплатит, как это стало известно из скандала с компанией Facebook Cambridge Analytica. В 2014 году приложение "Thisisyourdigitallife" предлагало пользователям заплатить за тесты личности, для чего требовалось разрешение на доступ к их профилям в Facebook и профилям их друзей. По сути, Facebook позволил компании Cambridge Analytica шпионить за пользователями без разрешения.
Результат? Две исторические массовые психологические пиар-кампании, оказавшие достаточно сильное влияние на исход президентских выборов в США и референдума о членстве Великобритании в Евросоюзе в 2016 году. Научилась ли компания Meta (ранее Facebook) на своих ошибках? Не похоже.
В июле компания Meta представила свое новое приложение - Threads. Заявленное как конкурент Twitter Элона Маска, оно собирает обычные данные, которые собирают Facebook и Instagram. Но, как и в случае с TikTok, при регистрации пользователи Threads невольно предоставляют Meta доступ к GPS-координатам, камере, фотографиям, IP-адресу, типу устройства и его сигналам. Это стандартная практика Web2 - оправдываться тем, что "пользователи согласились с условиями". На самом деле, чтобы прочитать все политики конфиденциальности каждого приложения, используемого обычным пользователем Интернета, потребуется в среднем 76 рабочих дней. Суть? Теперь Meta имеет доступ практически ко всему, что находится на телефонах более 150 млн. пользователей.
Появляется искусственный интеллект. Если последствия скандала с Cambridge Analytica вызывают опасения, то можем ли мы хотя бы приблизительно представить себе последствия брака между этой инвазивной слежкой и богоподобным интеллектом ИИ?
Неожиданным средством здесь является блокчейн, но решение не столь однозначно.
Одна из главных опасностей ИИ заключается в данных, которые он может собирать и затем использовать в качестве оружия. Что касается социальных сетей, то технология блокчейн потенциально способна повысить уровень конфиденциальности и контроля данных, что может помочь смягчить практику сбора данных Big Tech. Однако вряд ли она сможет "остановить" Big Tech от получения конфиденциальных данных.
Для реальной защиты от преднамеренных опасностей ИИ и предотвращения будущих сценариев, подобных Cambridge Analytica, необходимы децентрализованные, желательно основанные на блокчейне, платформы социальных сетей. По своей сути они снижают концентрацию пользовательских данных в одной центральной структуре, сводя к минимуму возможность массовой слежки и кампаний по дезинформации с помощью ИИ.
Проще говоря, благодаря технологии блокчейн у нас уже есть инструменты, необходимые для обеспечения нашей независимости от ИИ как на индивидуальном, так и на национальном уровне.
Вскоре после подписания в мае открытого письма правительствам об опасностях ИИ генеральный директор OpenAI Сэм Альтман опубликовал в своем блоге сообщение, в котором предложил несколько стратегий ответственного управления мощными системами ИИ. Они предполагают сотрудничество между основными разработчиками ИИ, более глубокое техническое изучение больших языковых моделей и создание глобальной организации по безопасности ИИ.
Хотя эти меры являются хорошим началом, они не затрагивают системы, которые делают нас уязвимыми для ИИ, а именно централизованные Web2-структуры, такие как Meta. Чтобы по-настоящему защититься от ИИ, необходимо срочно развивать технологии на основе блокчейна, в частности в области кибербезопасности, и создавать действительно конкурентоспособную экосистему децентрализованных приложений для социальных сетей.