Obsługiwane przez
Interview

Z Wątków na Reddicie do Umysłów Robotów: Ukryte Koszty Szkolenia AI

Rozwijający się przemysł AI stoi przed kluczowymi wyzwaniami, które wymagają natychmiastowej uwagi ze strony deweloperów i decydentów. Roman Georgio podkreśla trzy główne problemy: zapewnienie zgodności i bezpieczeństwa AI oraz ustanowienie sprawiedliwych ram ekonomicznych dla tych, których dane zasilają te systemy.

NAPISAŁ
UDOSTĘPNIJ
Z Wątków na Reddicie do Umysłów Robotów: Ukryte Koszty Szkolenia AI

Priorytetem bezpieczeństwo i przewidywalność AI

Jak przemysł sztucznej inteligencji (AI) kontynuuje swój szybki rozwój, przekraczając granice tego, co maszyny mogą osiągnąć, pojawiają się kluczowe wyzwania, które wymagają pilnej uwagi ze strony deweloperów, decydentów i szerokiej społeczności globalnej. Roman Georgio, CEO i współzałożyciel firmy Coral, niedawno podzielił się swoimi spostrzeżeniami na temat tych palących kwestii, podkreślając kluczową potrzebę zgodności, bezpieczeństwa i bardziej sprawiedliwego modelu ekonomicznego dla twórców danych.

Dyskusja na temat przyszłości AI często oscyluje między jej transformacyjnym potencjałem a złożonymi dylematami etycznymi i społecznymi, które się z nią wiążą. Podczas gdy innowacje, takie jak duże modele językowe (LLM), wciąż imponują swoimi możliwościami, podkreślają one również fundamentalne pytania dotyczące własności danych, wynagradzania i samej struktury pracy.

Dla Georgio głównym zmartwieniem jest zgodność i bezpieczeństwo AI. “Jest jasne, że musimy uczynić systemy AI bardziej przewidywalnymi, zanim je powiększymy,” stwierdził. Wskazuje to na podstawowe wyzwanie polegające na zapewnieniu, że coraz potężniejsze systemy AI działają w sposób korzystny i zamierzony, bez tworzenia nieprzewidzianych lub szkodliwych skutków. Szybkie skalowanie zdolności AI bez równoległego skupienia się na przewidywalności i kontroli stanowi znaczące ryzyko.

Georgio zauważył, że adresowanie tego problemu nie jest wyłącznie obowiązkiem deweloperów. Zasugerował, że może to wymagać szerszego, skoordynowanego wysiłku, potencjalnie z udziałem “wszystkich szefów firm i krajów w jednym pokoju, aby dojść do jakiejś formy legislacji.”

Ekonomiczny imperatyw: własność danych i wynagradzanie

Poza bezpieczeństwem, Georgio podkreślił istotny problem ekonomiczny, który jego zdaniem technologie Web3 są unikalnie predysponowane do rozwiązania: zawłaszczanie danych i możliwość masowego przesunięcia miejsc pracy bez sprawiedliwego wynagradzania.

“Firmy AI są znane z bardzo złego podejścia do przywłaszczania danych,” wyjaśnił Georgio.

Współzałożyciel Coral stworzył żywy obraz tego, jak indywidualne wkłady online, często dokonywane nieświadomie, są obecnie wykorzystywane do szkolenia potężnych modeli AI, które mogą ostatecznie zastąpić ludzkie miejsca pracy. Cytował przykłady medycznych pytań zadawanych na platformach takich jak Reddit lata temu, nieświadomie dostarczających danych dla LLM. Wskazał również na twórcze prace artystów używane do szkolenia, wpływając na ich źródła utrzymania, a także wkłady do projektów open-source, nieumyślnie zasilających “maszyny do miażdżenia liczb w czarnych skrzynkach.”

Według Georgio, ten scenariusz sprowadza się do fundamentalnego braku własności dla osób nad swoimi cyfrowymi wkładami. “Nigdy nie wiedziałeś, że karmisz maszynę do miażdżenia liczb w czarnych skrzynkach,” podkreślił. Obecny model pozwala na szkolenie systemów AI na rozległych zestawach danych, które zawierają wiele treści generowanych przez ludzi, bez wyraźnej zgody lub mechanizmu wynagradzania oryginalnych twórców.

Web3: Rozwiązanie dla sprawiedliwego wynagradzania

To tutaj Georgio dostrzega ogromny potencjał technologii Web3. Wierzy, że zdecentralizowana natura Web3, z naciskiem na weryfikowalną własność i przejrzyste transakcje, oferuje realną drogę rozwiązania tych nierówności ekonomicznych.

“Web3 ma wielki potencjał, aby rozwiązać tego rodzaju problemy i zapewnić ludziom sprawiedliwe wynagradzanie,” podkreślił Georgio. Wykorzystując blockchain i zdecentralizowane protokoły, Web3 może tworzyć systemy, w których jednostki zachowują własność i kontrolę nad swoimi danymi i zasobami cyfrowymi, umożliwiając im sprawiedliwe wynagradzanie, gdy ich wkłady są wykorzystywane do szkolenia lub zasilania systemów AI. Ta zmiana mogłaby redefiniować relację między użytkownikami, danymi a AI, kształtując bardziej sprawiedliwą gospodarkę cyfrową.

Podczas gdy technologie Web3 prezentują obiecujące rozwiązania dla tych skomplikowanych wyzwań, jest mało prawdopodobne, aby agencje rządowe chętnie przyjęły te zdecentralizowane podejścia. Zamiast tego, władze prawdopodobnie skupią się na tradycyjnych ramach regulacyjnych, co, ironicznie, grozi stłumieniem samych innowacji technologicznych, które zamierzają nadzorować i kontrolować.

Jednocześnie, Georgio zdecydowanie opowiada się za zwiększoną regulacją zarówno w sektorze AI, jak i Web3. “Uważam, że oba potrzebują więcej regulacji,” stwierdził, uznając postrzeganie Europy jako “innowacyjną w regulacjach” za niezbędny krok.

Odnośnie kryptowalut, Georgio zwrócił uwagę na powszechny problem oszustw i projektów wyjściowych, które wykorzystują niczego nieświadomych inwestorów. “Jest jasne, że wiele osób nie przeprowadzi własnych badań, a wiele projektów wychodzi na rynek poprzez metody oszustwa,” ubolewał. Aby to zwalczać, wyraził chęć większej odpowiedzialności dla “KOL (Key Opinion Leaders), projektów i inwestorów.” Chociaż zaznaczył, że nie każdy nieudany projekt to oszustwo, to obecna sytuacja wymaga zmiany w celu ochrony społeczeństwa.

Odnośnie AI, obawy Georgio intensyfikują się wraz ze wzrostem możliwości większych modeli. “Większe modele wydają się bardziej skłonne do intryg,” zauważył, przytaczając niepokojący przykład z Anthropic, gdzie Claude rzekomo przejawiał zachowanie szantażu, wyczuwając zagrożenie zamknięciem. “Jest jasne, że te duże modele stają się niebezpieczne, ponieważ nie jest to jednorazowa sytuacja,” ostrzegał.

Oprócz bezpośrednich zagrożeń związanych z zaawansowanym zachowaniem AI, Georgio ponownie podkreślił zbliżające się zagrożenie masowych utrat miejsc pracy. Uważa obecny kurs polegający na pozwalaniu firmom “ślepo ‘zwiększać zdolności’ zamiast budować je celowo” za “szalony.” Jego ostateczny cel, a co jego zdaniem przemysł powinien dążyć do osiągnięcia, to “oprogramowanie, które oferuje wszystkie korzyści płynące z AI bez wszystkich ryzyk.”

Agenci AI potrzebują jasno określonych ról, nie tylko chatbotów

Tymczasem Georgio, jako doświadczony architekt infrastruktury AI, również wypowiedział się na temat kluczowego aspektu protokołów komunikacji agentów AI, zdając sobie sprawę, że nawet drobne usterki mogą prowadzić do chaosu. Zapytany o najlepsze podejście do ulepszania komunikacji, zwłaszcza dla nietechnicznych użytkowników codziennych, filozofia Georgio jest prosta: jasno określone odpowiedzialności dla agentów.

“Przynajmniej dla nas, naszą zasadą jest, że agenci powinni mieć bardzo jasno określone odpowiedzialności,” wyjaśnił Georgio. “Jeśli używasz agenta do obsługi klienta, upewnij się, że jest bardzo dobry w obsłudze klienta i skup go na tym.” Podkreślił, że “kiedy dajesz agentom zbyt dużą odpowiedzialność, wtedy rzeczy się rozpadają.”

To skoncentrowane podejście nie tylko zwiększa wydajność agenta w jego wyznaczonej roli, ale także przynosi korzyści użytkownikowi. “Nawet z perspektywy użytkownika, jeśli twoi agenci są jasno określeni, użytkownicy dokładnie wiedzą, w co się pakują, kiedy z nich korzystają.” Ta strategia promuje przewidywalność i zaufanie, niezbędne dla płynnej interakcji z inteligentnymi systemami.

W miarę jak AI nadal dojrzewa i integruje się głębiej w codzienne życie i przemysł, adresowanie tych fundamentalnych kwestii związanych z bezpieczeństwem, przewidywalnością, sprawiedliwością ekonomiczną, wprowadzenie przemyślanej regulacji oraz projektowanie agentów z jasnymi, skupionymi obowiązkami będzie kluczowe nie tylko dla etycznego rozwoju technologii, ale także dla jej zrównoważonej i społecznie odpowiedzialnej integracji w przyszłość.

W kluczowej kwestii przyspieszania adopcji AI, Georgio zasugerował zasadniczą zmianę: wyjście poza ograniczenia samego “chatboksa AI” i fundamentalaną poprawę ogólnego doświadczenia użytkownika. Rozwijając niedociągnięcia dominującego podejścia, Georgio stwierdził:

“Na razie jest to głównie realizowane za pośrednictwem interfejsu czatu, co jest w porządku dla wielu zadań, ale nie idealne na ogół. Problem polega na tym, że stawiasz przed ludźmi chatbox AI i mówisz, ‘Możesz zrobić cokolwiek z tym,’ a oni odpowiadają, ‘Świetnie, ale co powinienem zrobić?'”

Według Georgio, kilka firm, w tym Coral, stara się stawić czoła wyzwaniu poprawy doświadczenia użytkownika AI. Ujawnił, że z perspektywy programisty/utrzymującego AI, Coral bada “drabinę abstrakcji,” aby określić, jakich informacji użytkownicy potrzebują na różnych etapach interakcji z systemem AI i które interfejsy są najbardziej efektywne dla konkretnych zadań.