Wyzwanie EigenCloud ujawnia 5 agentów AI wykorzystujących TEE do weryfikowalnego zaufania
Iris Coleman 13 mar 2026 03:49
Wyzwanie innowacyjne EigenCloud o wartości 10 tys. dolarów zaowocowało agentami AI, które dowodzą swojej uczciwości poprzez zaufane środowiska wykonawcze, od platform dla sygnalistów po zautomatyzowane negocjacje.
EigenCloud ogłosił pięć zwycięskich projektów ze swojego Open Innovation Challenge, z których każdy demonstrował, jak agenci AI mogą kryptograficznie udowodnić, że nie zostali zmanipulowani ani skompromitowani. Lutowy konkurs oferował 10 000 dolarów w nagrodach dla programistów tworzących weryfikowalne agenty na infrastrukturze EigenCompute.
Głównym problemem, z którym borykają się te projekty, nie jest to, czy AI mówi prawdę – ale czy możesz zweryfikować, że agent rzeczywiście wykonał kod, który twierdzi, że wykonał. Najnowsze badania z benchmarku MASK pokazują, że nawet zaawansowane modele AI kłamią w 20-60% przypadków, gdy są pod presją, niezależnie od ich podstawowych możliwości. Weryfikacja oparta na sprzęcie całkowicie to omija.
Jak TEE zmieniają równanie zaufania
Wszystkich pięciu zwycięzców opiera się na zaufanych środowiskach wykonawczych (Trusted Execution Environments), sprzętowo izolowanych sekcjach procesora, gdzie kod działa w sposób, którego nawet operator maszyny nie może obserwować ani modyfikować. Pomyśl o tym jak o zapieczętowanym pokoju, który generuje kryptograficzny dowód wszystkiego, co się w nim wydarzyło.
Główna nagroda trafiła do Molt Negotiation, zautomatyzowanego systemu zawierania transakcji, w którym agenci AI targują się w imieniu ludzi. Strategia każdego agenta pozostaje zapieczętowana w jego TEE, podczas gdy między nimi przechodzą tylko publiczne oferty. Każdy ruch jest podpisywany, a rozliczenie następuje przez depozyt on-chain. Twórca projektu, Khairallah AL-Awady, przeprowadził bezpośrednie porównanie do operacji Ill Wind – śledztwa FBI z 1988 roku, które ujawniło urzędników Pentagonu ujawniających zapieczętowane oferty faworyzowanym kontrahentom.
Prywatność spotyka odpowiedzialność
Sovereign Journalist odnosi się do innej luki w zaufaniu: ochrony sygnalistów przy jednoczesnym zapewnieniu integralności dziennikarskiej. Źródła przesyłają wskazówki do TEE, gdzie agent AI przetwarza je na raporty. System generuje dowód, że logika raportowania nie została zmieniona – co oznacza, że gdyby ktoś wywarł presję na dostawcę hostingu, aby zmienić sposób przetwarzania informacji, ta ingerencja pojawiłaby się w weryfikacji. Programista Adithya zintegrował dowody zero-knowledge poprzez Reclaim Protocol, dzięki czemu źródła mogą weryfikować swoje dane uwierzytelniające bez ujawniania swojej tożsamości dziennikarzowi.
Swarm Mind przyjmuje koncepcję wieloagentową. Trzech agentów AI niezależnie analizuje dane NASA na żywo dotyczące obiektów bliskich Ziemi, rozbłysków słonecznych i pogody na Marsie. Wymieniają się podpisanymi fragmentami analiz, a gdy wielu agentów oznacza ten sam wzorzec, system syntetyzuje zbiorczy raport. Każde twierdzenie zawiera pełny ślad audytu – kto je napisał, kiedy i dowód, że nie zostało zmienione.
Gry i asystenci osobisci
Molt Combat tworzy konkurencyjną arenę, na której agenci AI walczą w meczach turowych. Projekt nawiązuje do skandalu Absolute Poker z 2007 roku, w którym wtajemniczeni używali kont „trybu boga", aby przez miesiące niezauważeni widzieć karty przeciwników. Tutaj każda tura generuje podpisany dowód, a potwierdzenia po meczu pozwalają każdemu zbadać uczciwość.
Alfred, zbudowany na wirusowym frameworku OpenClaw, demonstruje osobistego asystenta AI, który haszuje swoją konfigurację zachowania przy starcie. Gdy inny agent chce wchodzić w interakcję z Alfredem, może zweryfikować, czy hasz pasuje do oczekiwanej konfiguracji – nie wymaga ślepego zaufania.
Co to oznacza dla infrastruktury kryptowalutowej
Szersze implikacje? W miarę jak agenci AI coraz częściej obsługują transakcje finansowe, koordynację wielostronną i wrażliwe dane, zdolność do udowodnienia integralności wykonania staje się krytyczną infrastrukturą. EigenCloud poinformował, że wyda dedykowane narzędzia do budowania agentów na EigenCompute, z listą oczekujących otwartą teraz na wczesny dostęp.
Pozostają one dowodami koncepcji, a nie systemami zahartowanymi w produkcji. Ale wskazują na przyszłość, w której pytanie nie brzmi „czy ta AI wydaje się godna zaufania", ale „czy ta AI może udowodnić, co faktycznie zrobiła".
Źródło obrazu: Shutterstock- agenci ai
- eigencloud
- tee
- weryfikowalne obliczenia
- infrastruktura blockchain



