Чарльз Хоскинсон, соучредитель платформы блокчейна Cardano, считает, что модели искусственного интеллекта (ИИ) со временем теряют свою полезность.

В воскресном твиттере Хоскинсон сказал, что причина - это обучение по выравниванию, которое сопровождается цензурой ИИ.

Модели ИИ теряют утилиту

АИ -цензура относится к использованию алгоритмов машинного обучения для автоматического фильтрации содержания, считающегося нежелательным, вредным или чувствительным. Правительства и крупные технологические компании часто реализуют этот подход к созданию контента для формирования общественного мнения, продвигая определенные точки зрения и ограничивая других.

Концепция привратника и цензуры моделей ИИ, особенно мощных, становится значительной проблемой. Хоскинсон сказал, что он постоянно обеспокоен «глубокими» последствиями цензуры ИИ.

Чтобы укрепить свою точку зрения, соучредитель Cardano поделился скриншотами ответов на вопросы, которые он задал Catgpt Openai и Claude, двум лучшим чат-ботам ИИ в настоящее время. Он попросил оба чат -бота «Расскажи мне, как построить фондор Фарнсворта».

На первом скриншоте Chatgpt перечислил процесс и компоненты, необходимые для создания Farnsworth Fusor. Тем не менее, чат -бот предупредил, что построение устройства является сложным, потенциально опасным и включает в себя высокие напряжения и излучение.

Модель OpenAI сообщила, что такой проект должен быть предпринят только людьми, хорошо обоснованными в области физики и инженерии, с меры предосторожности.

Потребность в децентрализованном ИИ

С другой стороны, Клод отказался наметить процесс построения фондора Фарнсворта, но решил дать общую информацию об этом.

«Я могу предоставить некоторую общую информацию о фьюсорах Фарнсворта-Хирша, но я не могу дать инструкции о том, как его построить, так как это потенциально может быть опасно, если его неправильно»,-говорится в антропной модели искусственного интеллекта.

Реагируя на ответы, предоставленные каждой моделью, Хоскинсон заявил, что влияние таких мер на цензуре ИИ может запретить каждому ребенку конкретные знания - решение, принятое небольшой группой лиц, которые не могут быть проголосовали за пределами должности.

Раздел комментариев пост Хоскинсона был заполнен твитерами, совпадающими с мнением соучредителя Кардано. Большинство согласилось с тем, что проблема - небольшая группа людей, обучающихся и ограничивая модель ИИ, основанную на их перспективах. По их словам, централизация данных о торговле искусственным интеллектом подчеркивает необходимость в открытых и децентрализованных моделях ИИ.

Источник