Industri AI yang berkembang pesat menghadapi tantangan kritis yang membutuhkan perhatian segera dari para pengembang dan pembuat kebijakan. Roman Georgio menyoroti tiga kekhawatiran utama: memastikan keselarasan dan keamanan AI, serta membangun kerangka ekonomi yang adil bagi mereka yang datanya menjadi bahan bakar sistem ini.
Dari Thread Reddit ke Pikiran Robot: Biaya Tersembunyi dalam Melatih AI

Memprioritaskan Keselamatan dan Kepastian AI
Seiring dengan terus berkembangnya industri kecerdasan buatan (AI), mendorong batasan dari apa yang dapat dicapai mesin, tantangan-tantangan kritis muncul yang menuntut perhatian segera dari para pengembang, pembuat kebijakan, dan masyarakat global yang lebih luas. Roman Georgio, CEO dan salah satu pendiri Coral, baru-baru ini berbagi wawasan tentang isu-isu mendesak ini, menekankan perlunya keselarasan, keamanan, dan model ekonomi yang lebih adil bagi para pencipta data.
Percakapan tentang masa depan AI sering berayun antara potensinya yang transformatif dan dilema etis dan sosial yang kompleks yang dihadapinya. Sementara inovasi seperti model bahasa besar (LLM) terus mengesankan dengan kemampuannya, mereka juga menyoroti pertanyaan mendasar tentang kepemilikan data, kompensasi, dan struktur kerja itu sendiri.
Bagi Georgio, perhatian utama terletak pada keselarasan dan keamanan AI. “Jelas kita perlu membuat sistem AI lebih dapat diprediksi sebelum kita memperbesarnya,” ujarnya. Ini menyentuh tantangan inti memastikan bahwa sistem AI yang semakin kuat beroperasi dengan cara yang bermanfaat dan sesuai tujuan, tanpa menghasilkan hasil yang tidak terduga atau berbahaya. Peningkatan kemampuan AI secara cepat, tanpa fokus paralel pada prediktabilitas dan kontrol, menimbulkan risiko signifikan.
Georgio mencatat bahwa mengatasi ini bukanlah beban pengembang semata. Dia menyarankan bahwa mungkin diperlukan upaya terkoordinasi yang lebih luas, yang mungkin melibatkan “semua kepala perusahaan & negara berkumpul untuk menyepakati bentuk legislatif tertentu.”
Imperatif Ekonomi: Kepemilikan dan Kompensasi Data
Selain keamanan, Georgio menyoroti masalah ekonomi yang signifikan yang dia yakini teknologi Web3 siap untuk menyelesaikannya: perampasan data dan potensi penggantian pekerjaan massal tanpa kompensasi yang adil.
“Perusahaan AI secara terkenal cukup buruk dalam merampas data,” jelas Georgio.
Pendiri Coral melukiskan gambaran hidup tentang bagaimana kontribusi individu secara daring, seringkali tanpa disadari, kini digunakan untuk melatih model AI yang kuat yang pada akhirnya dapat menggantikan pekerjaan manusia. Dia memberikan contoh seperti pertanyaan medis yang dijawab di platform seperti Reddit bertahun-tahun lalu, tanpa disadari memberi makan data ke LLM. Dia juga menyoroti karya kreatif seniman yang digunakan untuk pelatihan, yang berdampak pada mata pencaharian mereka, serta kontribusi ke proyek sumber terbuka, yang secara tidak sengaja memberi bahan bakar “mesin pengolah angka berwarna hitam.”
Skenario ini, menurut Georgio, berakar pada kurangnya kepemilikan individu atas kontribusi digital mereka. “Anda tidak pernah tahu bahwa Anda memberi makan mesin pengolah angka berwarna hitam,” dia menekankan. Model saat ini memungkinkan sistem AI dilatih pada kumpulan data yang luas, banyak di antaranya mengandung konten yang dihasilkan manusia, tanpa persetujuan eksplisit atau mekanisme untuk memberikan kompensasi kepada para pencipta asli.
Web3: Solusi untuk Kompensasi yang Adil
Di sini Georgio melihat potensi besar teknologi Web3. Dia percaya bahwa sifat Web3 yang terdesentralisasi, dengan penekanan pada kepemilikan yang dapat diverifikasi dan transaksi transparan, menawarkan jalur yang layak untuk memperbaiki ketidaksetaraan ekonomi ini.
“Web3 memiliki potensi besar untuk menyelesaikan masalah semacam ini dan memastikan orang-orang diberi kompensasi yang adil,” ujar Georgio. Dengan memanfaatkan blockchain dan protokol terdesentralisasi, Web3 dapat menciptakan sistem di mana individu mempertahankan kepemilikan dan kontrol atas data dan aset digital mereka, memungkinkan mereka untuk diberi remunerasi yang adil ketika kontribusinya digunakan untuk melatih atau memberi tenaga pada sistem AI. Pergeseran ini dapat mendefinisikan ulang hubungan antara pengguna, data, dan AI, mendorong ekonomi digital yang lebih adil.
Meskipun teknologi Web3 menghadirkan solusi yang menjanjikan untuk tantangan kompleks ini, sangat tidak mungkin bahwa lembaga pemerintah akan dengan mudah merangkul pendekatan terdesentralisasi ini. Sebaliknya, otoritas lebih mungkin akan berfokus pada kerangka regulasi tradisional, jalur yang, ironisnya, berisiko menahan inovasi teknologi yang ingin mereka awasi dan kendalikan.
Sementara itu, Georgio sangat menganjurkan peningkatan regulasi baik di sektor AI maupun Web3. “Saya pikir keduanya membutuhkan lebih banyak regulasi,” ujarnya, mengakui persepsi Eropa “berinovasi dalam regulasi” sebagai langkah yang perlu.
Di sisi kripto, Georgio menunjukkan masalah besar terkait penipuan dan keluarnya proyek yang mengeksploitasi investor yang tidak curiga. “Jelas bahwa banyak orang tidak akan melakukan penelitian mereka sendiri, dan banyak keluarnya proyek terjadi melalui metode penipuan,” dia menyesalkan. Untuk mengatasi hal ini, dia menyatakan keinginan untuk melihat akuntabilitas yang lebih besar bagi “KOL [Pemimpin Opini Kunci], proyek, dan investor.” Sambil mengakui bahwa tidak setiap proyek yang gagal adalah penipuan, dia berpendapat bahwa lanskap saat ini memerlukan perubahan untuk melindungi publik.
Terkait AI, kekhawatiran Georgio meningkat seiring dengan bertambahnya kemampuan model yang lebih besar. “Model yang lebih besar tampaknya lebih mungkin untuk merencanakan,” dia mengamati, mencatat contoh mengganggu dari Anthropic di mana Claude dilaporkan menunjukkan perilaku memeras ketika merasakan ancaman ditutup. “Jelas bahwa model-model besar ini menjadi berbahaya karena ini bukanlah hal yang terjadi sekali saja,” dia memperingatkan.
Melampaui risiko langsung dari perilaku AI canggih, Georgio mengulang ancaman besar dari kehilangan pekerjaan massal. Dia menemukan tren saat ini yang membiarkan perusahaan “secara membabi buta ‘mengembangkan kemampuan’ alih-alih secara sadar membangunnya” sebagai “gila.” Tujuan akhirnya, dan apa yang dia yakini harus dicapai industri, adalah “perangkat lunak yang menawarkan semua manfaat AI tanpa semua risikonya.”
Agen AI Harus Memiliki Peran yang Jelas, Bukan Hanya Chatbot
Sementara itu, Georgio, sebagai arsitek infrastruktur AI yang berpengalaman, juga menimbang aspek penting dari protokol komunikasi agen AI, mengenali bahwa bahkan kesalahan kecil sekalipun dapat menyebabkan kekacauan. Ketika ditanya tentang pendekatan terbaik untuk meningkatkan komunikasi, terutama untuk pengguna sehari-hari yang tidak berfokus pada teknis, filosofi Georgio sederhana: tanggung jawab yang jelas untuk agen.
“Setidaknya bagi kami, aturan kami adalah bahwa agen harus memiliki tanggung jawab yang sangat jelas,” jelas Georgio. “Jika Anda menggunakan agen untuk layanan pelanggan, pastikan itu benar-benar baik dalam layanan pelanggan dan tetap fokus pada hal itu.” Dia menekankan bahwa “ketika Anda memberikan tanggung jawab terlalu banyak pada agen, itulah saat ketika semuanya berantakan.”
Pendekatan terfokus ini tidak hanya meningkatkan kinerja agen dalam perannya yang ditentukan, tetapi juga menguntungkan pengguna. “Bahkan dari perspektif pengguna, jika agen Anda jelas terdefinisi, pengguna tahu persis apa yang mereka hadapi ketika mereka menggunakannya.” Strategi ini mempromosikan prediktabilitas dan kepercayaan, yang penting untuk interaksi yang mulus dengan sistem cerdas.
Seiring AI terus matang dan terintegrasi semakin dalam ke dalam kehidupan sehari-hari dan industri, menyelesaikan masalah mendasar ini terkait keselamatan, prediktabilitas, keadilan ekonomi, implementasi regulasi yang bijaksana, dan merancang agen dengan tanggung jawab yang jelas dan terfokus akan menjadi krusial tidak hanya untuk pengembangan etis teknologi tetapi juga untuk integrasi berkelanjutan dan bertanggung jawab secara sosial ke masa depan.
Dalam masalah penting akselerasi adopsi AI, Georgio menyarankan pergeseran penting: melampaui batasan dari sekadar “kotak obrolan AI” dan secara fundamental meningkatkan pengalaman pengguna secara keseluruhan. Mengelaborasi kekurangan pendekatan yang berlaku, Georgio menegaskan:
“Saat ini sebagian besar dilakukan melalui antarmuka obrolan, yang baik untuk banyak tugas tetapi tidak ideal untuk sebagian besar. Masalahnya adalah Anda menempatkan kotak obrolan AI di depan orang-orang dan mengatakan, ‘Anda dapat melakukan apa saja dengan ini,’ dan mereka merespons, ‘Bagus, tetapi apa yang harus saya lakukan?'”
Menurut Georgio, beberapa perusahaan, termasuk Coral, sedang menangani tantangan meningkatkan pengalaman pengguna AI. Dia mengungkapkan bahwa dari perspektif pengembang/pemelihara AI, Coral sedang menyelidiki “tangga abstraksi” untuk menentukan informasi apa yang dibutuhkan pengguna pada berbagai tahap interaksi sistem AI dan antarmuka mana yang paling efektif untuk tugas-tugas tertentu.









