Злиття AI та Web3 породжує DeFAI, нові виклики безпеки викликають підписатися в галузі
Нещодавно, Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Протягом двох днів заходу кілька експертів галузі провели глибоке обговорення стану застосування технологій AI у децентралізованих фінансах (DeFi) та викликів безпеки.
З розвитком великих мовних моделей (LLM) та AI-агентів швидко формується нова фінансова модель — децентралізовані штучні інтелектуальні фінанси (DeFAI). Проте ця інновація також створює нові вектори атак і загрози безпеці, що викликає широкий інтерес у галузі.
Деякий високопосадовець безпечної компанії зазначив: "DeFAI, хоча і має великі перспективи, змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу контексту, часу та навіть історичної взаємодії. Ця непередбачуваність не лише загострює ризики, але й створює можливості для атакуючих."
AI-агенти по суті є інтелектуальними агентами, здатними приймати автономні рішення та виконувати їх на основі логіки ШІ, зазвичай уповноваженими користувачем, протоколом або DAO. Найбільш типовим прикладом є AI-торгові роботи. Наразі більшість AI-агентів працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак введення, маніпуляцій з моделлю або спотворення даних. Якщо їх захоплять, це може призвести не лише до втрат коштів, але й суттєво вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник може опублікувати фальшиві тривоги, такі як "якийсь протокол під атакою", спонукаючи агента негайно запустити екстрене очищення. Ця операція не тільки призведе до втрати активів користувача, але й викличе коливання на ринку, які зловмисник зможе використати через переднє торгівлю (Front Running).
Щодо цих ризиків, експерти, що брали участь у конференції, загалом вважають, що безпека AI-агентів не повинна покладатися лише на одну сторону, а є спільною відповідальністю користувачів, розробників та третіх сторін безпеки.
Користувачі повинні чітко усвідомлювати обсяги прав, що має агент, обережно надаючи права, і уважно стежити за високоризиковими операціями AI-агента. Розробники повинні впроваджувати заходи захисту вже на стадії проєктування, такі як зміцнення запитів, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні надати незалежну перевірку поведінки моделей AI-агента, інфраструктури та способів інтеграції в ланцюг, а також співпрацювати з розробниками та користувачами для виявлення ризиків і пропозицій щодо їх пом'якшення.
Один з експертів із безпеки попереджає: "Якщо продовжувати сприймати AI-агентів як 'чорну скриньку', то в реальному світі безпекові інциденти – це лише питання часу." Для розробників, які досліджують напрямок DeFAI, він радить: "Як і в разі смарт-контрактів, логіка поведінки AI-агентів також реалізується кодом. Оскільки це код, є можливість атак, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
Варто зазначити, що IBW, як один із найвпливовіших блокчейн-заходів Європи, за весь час залучив понад 15 тисяч учасників з усього світу, включаючи розробників, представників проектів, інвесторів та регуляторів. Цього року, внаслідок офіційного запуску Комісією з капітальних ринків Туреччини (CMB) ліцензування блокчейн-проектів, статус IBW в галузі ще більше підвищився.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
7
Поділіться
Прокоментувати
0/400
CommunitySlacker
· 07-12 14:28
Нічого не розумію, просто балакаю.
Переглянути оригіналвідповісти на0
FUD_Whisperer
· 07-12 07:53
Блокчейн маленьке містечко односельчанин один проект має йти в ногу з часом
Переглянути оригіналвідповісти на0
GateUser-a5fa8bd0
· 07-10 10:54
Знову обман для дурнів?
Переглянути оригіналвідповісти на0
GasFeeBarbecue
· 07-09 15:05
Знову роблять нові справи, безпеку ще не зрозуміли.
Переглянути оригіналвідповісти на0
AltcoinOracle
· 07-09 15:05
мої власні сигнали вказують на 83.7% кореляція між defai та маніпуляцією на ринку... просто кажу... довіряйте даним, а не хайпу
Переглянути оригіналвідповісти на0
FadCatcher
· 07-09 14:48
Назвати тебе DeFAI, ти наважишся відповісти?
Переглянути оригіналвідповісти на0
PebbleHander
· 07-09 14:36
Гей, друзі, скажу вам правду: defai – це всього лише спекуляція на концепції.
Об'єднання AI та Web3 породжує DeFAI: IBW зосереджується на викликах безпеки нових фінансових моделей
Злиття AI та Web3 породжує DeFAI, нові виклики безпеки викликають підписатися в галузі
Нещодавно, Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Протягом двох днів заходу кілька експертів галузі провели глибоке обговорення стану застосування технологій AI у децентралізованих фінансах (DeFi) та викликів безпеки.
З розвитком великих мовних моделей (LLM) та AI-агентів швидко формується нова фінансова модель — децентралізовані штучні інтелектуальні фінанси (DeFAI). Проте ця інновація також створює нові вектори атак і загрози безпеці, що викликає широкий інтерес у галузі.
Деякий високопосадовець безпечної компанії зазначив: "DeFAI, хоча і має великі перспективи, змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу контексту, часу та навіть історичної взаємодії. Ця непередбачуваність не лише загострює ризики, але й створює можливості для атакуючих."
AI-агенти по суті є інтелектуальними агентами, здатними приймати автономні рішення та виконувати їх на основі логіки ШІ, зазвичай уповноваженими користувачем, протоколом або DAO. Найбільш типовим прикладом є AI-торгові роботи. Наразі більшість AI-агентів працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак введення, маніпуляцій з моделлю або спотворення даних. Якщо їх захоплять, це може призвести не лише до втрат коштів, але й суттєво вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник може опублікувати фальшиві тривоги, такі як "якийсь протокол під атакою", спонукаючи агента негайно запустити екстрене очищення. Ця операція не тільки призведе до втрати активів користувача, але й викличе коливання на ринку, які зловмисник зможе використати через переднє торгівлю (Front Running).
Щодо цих ризиків, експерти, що брали участь у конференції, загалом вважають, що безпека AI-агентів не повинна покладатися лише на одну сторону, а є спільною відповідальністю користувачів, розробників та третіх сторін безпеки.
Користувачі повинні чітко усвідомлювати обсяги прав, що має агент, обережно надаючи права, і уважно стежити за високоризиковими операціями AI-агента. Розробники повинні впроваджувати заходи захисту вже на стадії проєктування, такі як зміцнення запитів, ізоляція в пісочниці, обмеження швидкості та логіка відкату. Треті сторони безпеки повинні надати незалежну перевірку поведінки моделей AI-агента, інфраструктури та способів інтеграції в ланцюг, а також співпрацювати з розробниками та користувачами для виявлення ризиків і пропозицій щодо їх пом'якшення.
Один з експертів із безпеки попереджає: "Якщо продовжувати сприймати AI-агентів як 'чорну скриньку', то в реальному світі безпекові інциденти – це лише питання часу." Для розробників, які досліджують напрямок DeFAI, він радить: "Як і в разі смарт-контрактів, логіка поведінки AI-агентів також реалізується кодом. Оскільки це код, є можливість атак, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
Варто зазначити, що IBW, як один із найвпливовіших блокчейн-заходів Європи, за весь час залучив понад 15 тисяч учасників з усього світу, включаючи розробників, представників проектів, інвесторів та регуляторів. Цього року, внаслідок офіційного запуску Комісією з капітальних ринків Туреччини (CMB) ліцензування блокчейн-проектів, статус IBW в галузі ще більше підвищився.