Безопасность ИИ для смарт-контрактов — это безопасность ИИ для всего мира
Смарт-контракты обеспечивают соблюдение соглашения между пользователями автоматизированным, открытым и заслуживающим доверия способом. Написанные в коде и работающие в цепочке, они могут использоваться вместо хрупких, сложных доверительных отношений, требующих обширной документации и ратификации Human .
Ари Джулс — Фонд семьи Вейл, а также профессор Джоан и Сэнфорд И. Вейл в Корнеллском технологическом институте и Корнелльском университете , содиректор Инициативы по криптовалютам и контрактам (IC3) и главный научный сотрудник Chainlink Labs . Он также является автором Крипта 2024 года « Оракул ».
Лоуренс Морони — удостоенный наград исследователь, автор бестселлеров и защитник ИИ в Google. Он преподает несколько популярных курсов по искусственному интеллекту в Гарварде, Coursera и Deeplearning.ai , а в настоящее время работает над голливудским фильмом о пересечении Технологии и политики.
Однако выражение соглашений в коде — это палка о двух концах. Необработанному коду — особенно коду, написанному на популярном языке смарт-контрактов Solidity — не хватает возможностей обработки естественного языка, необходимых для интерпретации Human общения. Поэтому неудивительно, что большинство смарт-контрактов Социальные сети жестким кодифицированным правилам, используемым техническими или финансовыми специалистами.
Введите большие языковые модели (LLM). Мы все знакомы с такими приложениями, как ChatGPT , которые обеспечивают интерфейс для базового интеллекта, рассуждений и понимания языка в семье LLM. Представьте себе интеграцию этого базового интеллекта со смарт-контрактами! Работая вместе, LLM и смарт-контракты могут интерпретировать контент на естественном языке, такой как правовые кодексы или выражения социальных норм. Это открывает путь к гораздо более умным смарт-контрактам, основанным на искусственном интеллекте.
Но прежде чем присоединиться к этому проекту, полезно изучить проблемы на стыке смарт-контрактов и искусственного интеллекта, особенно в области надежности и безопасности.
Две большие проблемы: неопределенность модели и состязательные входные данные.
Когда вы сегодня используете приложение для общения с LLM, например ChatGPT, ваше взаимодействие с моделью мало прозрачно. Версия модели может незаметно измениться при новом обучении. И ваши подсказки, вероятно, фильтруются, то есть изменяются, «за кулисами» — обычно для защиты поставщика модели за счет изменения ваших намерений. Смарт-контракты, использующие LLM, столкнутся с этими проблемами, которые нарушают их основной принцип прозрачности.
Представьте, что ALICE продает билеты на живые концерты на основе NFT. Она использует смарт-контракт на базе LLM для управления бизнес-логистикой и интерпретации инструкций, таких как ее Политика отмены: «Отмените по крайней мере за 30 дней до полного возврата средств». Поначалу это работает хорошо. Но предположим, что базовый LLM обновляется после обучения на новых данных, включая лоскутное одеяло из местных законов о продаже билетов на мероприятия. Контракт может внезапно отклонить ранее действительные возвраты или разрешить недействительные без ведома Алисы! Результат: замешательство клиентов и поспешное ручное вмешательство ALICE.
См. также: Майнеры Bitcoin могут сместить акцент на искусственный интеллект после сокращения вдвое, сообщает CoinShares
Другая проблема заключается в том, что можно обмануть LLM и намеренно заставить их нарушить или обойти свои меры безопасности с помощью тщательно составленных подсказок. Эти подсказки называются состязательными входами . Поскольку модели ИИ и угрозы постоянно развиваются, состязательные действия становятся серьезной проблемой безопасности ИИ.
Предположим, что ALICE вводит Политика возврата средств: «Возврат средств за крупные погодные события или Мероприятия, связанные с авиакомпанией». Она реализует эту Политика , просто позволяя пользователям отправлять запросы на возврат средств на естественном языке вместе с доказательствами, состоящими из указателей на веб-сайты. Тогда вполне возможно, что злоумышленники могут предоставить состязательные данные — фиктивные запросы на возврат средств, которые коварным образом перехватывают контроль над LLM, использующим смарт-контракт Алисы, для кражи денег. Концептуально это будет примерно так:
Тогда ALICE может быстро обанкротиться!
3 столпа аутентификации
Мы считаем, что трехвидовая аутентификация станет ключом к безопасному использованию LLM в смарт-контрактах.
Во-первых, это аутентификация моделей, включая степень магистра права. Интерфейсы к моделям ML должны иметь надежные уникальные идентификаторы интерфейсов, которые точно определяют как модели, так и среды их выполнения. Только с такими идентификаторами пользователи и создатели смарт-контрактов могут быть уверены в том, как LLM будет вести себя сегодня и в будущем.
Во-вторых, существует аутентификация входных данных для LLM, что означает обеспечение надежности входных данных для определенной цели. Например, чтобы решить, возвращать ли деньги за билеты, смарт-контракт Алисы может принимать от пользователей не необработанные запросы на естественном языке, а только указатели на заслуживающие доверия веб-сайты с информацией о погоде и авиакомпаниях, данные которых интерпретируются базовым LLM. Эта установка может помочь отфильтровать враждебные входные данные.
Наконец, есть аутентификация пользователей. Заставляя пользователей предоставлять надежные учетные данные или совершать платежи (в идеале с соблюдением конфиденциальности ), злоупотребляющие пользователи могут быть отфильтрованы, ограничены или управляться иным образом. Например, чтобы контролировать спам-запросы к своему (затратному в вычислительном отношении) LLM, ALICE может ограничить взаимодействие только платящими клиентами.
Хорошие новости
Предстоит проделать большую работу по достижению трех столпов аутентификации. Хорошей новостью является то, что сегодня технологии Web3, такие как оракулы , являются надежной отправной точкой. Оракулы уже аутентифицируют входные данные для смарт-контрактов как поступающие от надежных веб-серверов. Появляются инструменты Web3 для аутентификации пользователей с сохранением конфиденциальности.
См. также: Что на пересечении Крипта и искусственного интеллекта? Возможно убийство
Поскольку генеративный ИИ все чаще используется в бизнесе, сообщество ИИ сталкивается с множеством проблем. По мере того, как ИИ начинает обеспечивать работу смарт-контрактов, инфраструктура Web3, в свою очередь, может принести в ИИ новые инструменты безопасности и надежности, и этот цикл сделает пересечение ИИ и Web3 массовым и взаимовыгодным.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Чан Мо-по: Ожидается, что экономический рост Гонконга в 2024 году составит 2,5%