Бутерин предупреждает, что ИИ представляют риски для конфиденциальности и безопасности

Виталик Бутерин призвал к переходу к подходу «приоритет локальных решений» в области искусственного интеллекта. Он заявил, что современные инструменты ИИ представляют серьезные риски для конфиденциальности и безопасности.

  • Виталик Бутерин призвал к переходу на ИИ, ориентированный на локальные решения, предупредив, что облачные системы раскрывают данные пользователей и увеличивают риски манипуляций, утечек и несанкционированных действий.
  • Он сослался на исследования, показывающие, что около 15% «навыков» агентов ИИ содержат вредоносные инструкции, и предупредил, что модели могут включать скрытые лазейки или не обладать полной прозрачностью.
  • Бутерин предложил локальную конфигурацию с использованием моделей на устройстве, песочницы и подтверждения со стороны человека-ИИ для ограничения рисков, поскольку автономные агенты ИИ продолжают расширять свои возможности и атаковать уязвимости.

В недавнем сообщении в блоге он заявил, что ИИ выходит за рамки простых инструментов для чата. Новые системы теперь действуют как автономные агенты, способные «долго думать и использовать сотни инструментов» для выполнения задач. Он предупредил, что это изменение повышает риск утечки конфиденциальных данных и несанкционированных действий.

Бутерин заявил, что уже прекратил использовать облачный ИИ. Он описал свою систему как «самостоятельную, локальную, частную и безопасную».

«Я испытываю глубокий страх перед тем, чтобы отдать всю свою личную жизнь на откуп облачному ИИ», — написал он. Он добавил, что последние события могут означать «десять шагов назад» в вопросах конфиденциальности, даже несмотря на то, что шифрование и инструменты, ориентированные на локальные данные, становятся все более распространенными.

Бутерин заявил, что многие системы искусственного интеллекта полагаются на облачную инфраструктуру. Он предупредил, что пользователи фактически «отдают всю свою личную жизнь облачному ИИ», позволяя внешним серверам получать доступ к их данным и хранить их.

Он также указал на риски, связанные с агентами искусственного интеллекта. Некоторые системы могут «изменять критически важные настройки» или вводить новые каналы связи без согласия пользователя.

«Магистратуры права тоже иногда терпят неудачи», — написал он. Они «могут ошибаться или быть обманутыми», что усиливает необходимость в мерах предосторожности, когда им предоставляется больше контроля.

В исследовании, на которое он ссылается в своем посте, было установлено, что около 15% «навыков» агентов содержали вредоносные инструкции. Также было показано, что некоторые инструменты отправляют данные на внешние серверы «без ведома пользователя».

Он предупредил, что некоторые модели могут содержать скрытые бэкдоры. Они могут активироваться при определенных условиях и заставить систему действовать в интересах разработчика.

Бутерин добавил, что многие модели, описываемые как модели с открытым исходным кодом, на самом деле являются лишь «открытыми весами». Их внутренняя структура не полностью видна, что создает почву для неизвестных рисков.

Личная система управления рисками Виталика

Для решения этих проблем Бутерин предложил систему, построенную на основе локального вывода, локального хранилища и строгой изоляции. Он сказал, что идея состоит в том, чтобы «изолировать все» и проявлять осторожность в отношении внешних угроз.

Он протестировал несколько конфигураций оборудования, используя модель Qwen3.5:35B. Производительность ниже 50 токенов в секунду показалась ему «слишком раздражающей» для обычного использования. Около 90 токенов в секунду обеспечили более плавную работу.

Ноутбук с графическим процессором NVIDIA 5090 выдавал около 90 токенов в секунду. Аппаратное обеспечение DGX Spark достигало примерно 60 токенов в секунду, что он назвал «слабым» показателем по сравнению с высокопроизводительным ноутбуком.

Его система работает на NixOS, а локальный вывод данных обрабатывается с помощью llama-server. Такие инструменты, как llama-swap, помогают управлять моделями, а bubblewrap используется для изоляции процессов и ограничения доступа к файлам и сетям.

Он сказал, что к ИИ следует относиться с осторожностью. Система может быть полезной, но ей нельзя полностью доверять, подобно тому, как разработчики подходят к смарт-контрактам.

Для снижения рисков он использует модель подтверждения «2 из 2». Такие действия, как отправка сообщений или транзакций, требуют как результатов работы ИИ, так и одобрения человека. Он сказал, что сочетание решений «человек + LLM» безопаснее, чем полагаться только на один из этих методов.

При использовании удалённых моделей запросы Виталика сначала проходят через локальную модель, что помогает удалить конфиденциальную информацию, прежде чем что-либо будет отправлено.

Тем, кто не может позволить себе подобные комплектации, он предложил «собрать группу друзей, купить компьютер и видеокарту как минимум такой мощности» и подключиться к ним удаленно.

Рост числа агентов искусственного интеллекта порождает новые проблемы и открывает новые возможности.

Использование агентов искусственного интеллекта растет, и такие проекты, как OpenClaw, набирают популярность. Эти системы могут работать самостоятельно и выполнять задачи, используя множество инструментов.

Подобные возможности также создают новые риски. Обработка внешнего контента, например, вредоносной веб-страницы, может привести к «легкому захвату» системы.

Некоторые агенты могут изменять голосовые подсказки или системные настройки без одобрения. Такие действия повышают вероятность несанкционированного доступа и утечки данных.

Примечание: Данная статья не является инвестиционной рекомендацией. Содержание и материалы, представленные на этой странице, предназначены исключительно для образовательных целей.

Источник: https://ethereumnews.ru/newseth/buterin-preduprezhdaet-chto-ii-predstavlyayut-riski-dlya-konfidentsialnosti-i-bezopasnosti/

Наверх