Poganja
News

Vitalik Buterin iz Ethereuma opozarja na varnostna tveganja, povezana z agenci za umetno inteligenco, in predstavi svoj zasebni nabor modelov LLM

Soustanovitelj Ethereuma Vitalik Buterin se je popolnoma odpovedal storitvam umetne inteligence v oblaku in v blogu, objavljenem ta teden, podrobno opisal svojo popolnoma lokalno, v peskovniku zaščiteno konfiguracijo umetne inteligence (AI).

DELI
Vitalik Buterin iz Ethereuma opozarja na varnostna tveganja, povezana z agenci za umetno inteligenco, in predstavi svoj zasebni nabor modelov LLM

Ključne ugotovitve:

  • Soustanovitelj Ethereuma Vitalik Buterin je aprila 2026 opustil umetno inteligenco v oblaku in lokalno zažene Qwen3.5:35B na prenosnem računalniku Nvidia 5090 s hitrostjo 90 žetonov na sekundo.
  • Buterin je ugotovil, da približno 15 % veščin AI-agentov vsebuje zlonamerne navodila, pri čemer se sklicuje na podatke varnostnega podjetja Hiddenlayer.
  • Njegov odprtokodni sporočilni demon uveljavlja pravilo potrditve »človek plus LLM 2 od 2« za vse odhodne akcije prek Signala in e-pošte tretjim stranem.

Kako Vitalik Buterin upravlja samostojni sistem umetne inteligence brez dostopa do oblaka

Buterin je sistem opisal kot »samostojnega / lokalnega / zasebnega / varnega« in dejal, da je bil zgrajen kot neposreden odziv na to, kar vidi kot resne varnostne in zasebnostne pomanjkljivosti, ki se širijo v prostoru AI agentov. Opozoril je na raziskave, ki kažejo, da približno 15 % veščin agentov ali vtičnikov vsebuje zlonamerna navodila. Varnostno podjetje Hiddenlayer je pokazalo, da lahko razčlenitev ene same zlonamerne spletne strani v celoti ogrozi primer Openclaw, kar mu omogoča, da prenese in izvede skripte lupine brez vednosti uporabnika.

»Moje mišljenje izhaja iz globokega strahu, da ravno takrat, ko smo končno naredili korak naprej na področju zasebnosti z uveljavitvijo šifriranja od konca do konca in vedno večje količine programske opreme, ki daje prednost lokalnemu delovanju, smo na robu tega, da naredimo deset korakov nazaj,« je napisal Buterin.

Njegova izbrana strojna oprema je prenosni računalnik z grafičnim procesorjem Nvidia 5090 in 24 GB grafičnega pomnilnika. Pri izvajanju odprtokodnega modela Qwen3.5:35B podjetja Alibaba prek strežnika llama-server ta konfiguracija doseže 90 tokenov na sekundo, kar Buterin imenuje cilj za udobno vsakodnevno uporabo. Preizkusil je AMD Ryzen AI Max Pro z 128 GB združenega pomnilnika, ki je dosegel 51 tokenov na sekundo, in DGX Spark, ki je dosegel 60 tokenov na sekundo.

Dejal je, da je DGX Spark, ki se trži kot namizni AI superračunalnik, glede na svojo ceno in nižjo prepustnost v primerjavi z dobrim grafičnim procesorjem v prenosnem računalniku nezanimiv. Za svoj operacijski sistem je Buterin prešel z Arch Linuxa na NixOS, ki uporabnikom omogoča, da celotno konfiguracijo sistema opredelijo v enem samem deklarativnem datoteki. Uporablja llama-server kot ozadni demon, ki izpostavlja lokalno vrata, s katerimi se lahko poveže katera koli aplikacija.
Omenil je, da se Claude Code lahko usmeri na lokalno instanco llama-serverja namesto na strežnike podjetja Anthropic. Sandboxing je osrednjega pomena za njegov varnostni model. Uporablja bubblewrap za ustvarjanje izoliranih okolij iz katerega koli imenika z enim samim ukazom. Procesi, ki tečejo znotraj teh peskovnikov, imajo dostop le do datotek, ki so izrecno dovoljene, in nadzorovanih omrežnih vrat. Buterin je na github.com/vbuterin/messaging-daemon objavil odprtokodni demon za sporočanje, ki ovija signal-cli in e-pošto.
Omenil je, da demon lahko prosto bere sporočila in si jih pošilja sam, brez potrditve. Vsako odhodno sporočilo tretji osebi zahteva izrecno človeško odobritev. To je poimenoval model »človek + LLM 2-od-2« in dejal, da ista logika velja tudi za denarnice Ethereum. Ekipam, ki razvijajo orodja za denarnice, povezana z umetno inteligenco, je svetoval, naj avtonomne transakcije omejijo na 100 dolarjev na dan in zahtevajo človeško potrditev za vse, kar presega ta znesek, ali za vsako transakcijo, ki vsebuje calldata, ki bi lahko povzročila iznos podatkov.

Oddaljena inferenca po Buterinovih pogojih

Za raziskovalne naloge je Buterin primerjal lokalno orodje Local Deep Research s svojo lastno konfiguracijo, ki uporablja okvir pi agent v kombinaciji s SearXNG, samogostujočim meta-iskalnikom, osredotočenim na zasebnost. Dejal je, da pi plus SearXNG prinašata odgovore boljše kakovosti. Shranjuje lokalni izpis Wikipedije v velikosti približno 1 terabajta skupaj s tehnično dokumentacijo, da zmanjša svojo odvisnost od zunanjih iskalnih poizvedb, ki jih obravnava kot uhajanje zasebnosti.

Objavil je tudi lokalnega demon za transkripcijo zvoka na github.com/vbuterin/stt-daemon. Orodje za osnovno uporabo deluje brez grafičnega procesorja in izhodne podatke posreduje LLM za popravke in povzetke. Glede integracije v Ethereum je Buterin dejal, da agenti AI nikoli ne smejo imeti neomejenega dostopa do denarnice. Priporočil je, da se človek in LLM obravnavata kot dva ločena potrditvena dejavnika, ki vsak zaznavata različne načine napak.

Buterin pravi, da bi se pametni računi Ethereuma lahko zagnali leta 2026 z nadgradnjo Hegota

Buterin pravi, da bi se pametni računi Ethereuma lahko zagnali leta 2026 z nadgradnjo Hegota

Ethereum se pripravlja na prenovo načina delovanja denarnic, pri čemer je soustanovitelj Vitalik Buterin dejal, da bi lahko izvorni »pametni računi« prišli v enem letu. read more.

Preberi zdaj

Za primere, ko lokalni modeli ne zadostujejo, je Buterin opisal pristop k oddaljeni inferenci, ki ohranja zasebnost. Omenil je svoj predlog ZK-API, ki ga je pripravil skupaj z raziskovalcem Davidejem, projekt Openanonymity ter uporabo mixnetov, ki preprečujejo, da bi strežniki povezovali zaporedne zahteve po IP naslovih. Prav tako je navedel zaupanja vredna izvedbena okolja kot način za zmanjšanje uhajanja podatkov iz oddaljene inferenca v bližnji prihodnosti, pri čemer je opozoril, da je popolnoma homomorfno šifriranje za inferenco v zasebnem oblaku še vedno prepočasno, da bi bilo danes praktično.

Buterin je zaključil z opombo, da ta objava opisuje izhodišče, ne pa končnega izdelka, in bralce opozoril, naj ne kopirajo njegovih orodij in domnevajo, da so varna.