Impulsado por
Interview

Las herramientas de código abierto nivelan el campo de juego para las pequeñas empresas de IA, dice el defensor de la IA descentralizada

Este artículo se publicó hace más de un año. Alguna información puede no estar actualizada.

Para prevenir demandas y contrarrestar las alegaciones de que están entrenando sus respectivos modelos de inteligencia artificial (IA) con datos obtenidos ilegalmente, las empresas de IA deberían confiar en datos públicamente disponibles o de código abierto, según Alberto Fernandez. Fernandez, un defensor de la IA descentralizada y también el representante europeo del Ecosistema Qubic, enfatiza que las empresas de IA deberían considerar la anonimización y agregación de datos para abordar las preocupaciones sobre privacidad.

ESCRITO POR
COMPARTIR
Las herramientas de código abierto nivelan el campo de juego para las pequeñas empresas de IA, dice el defensor de la IA descentralizada

El Costo de Entrenar Modelos de IA Presenta una Barrera de Entrada Significativa

Refiriéndose a un caso en mayo donde la startup de IA Lovo fue demandada por supuestamente usurpar las voces de dos actores, Fernandez concordó con los litigantes que las acciones de la startup constituían una infracción a los derechos de privacidad. Además, argumentó que el acto violaba los estándares éticos al ignorar la autonomía de los actores. El representante del ecosistema Qubic sugiere que el consentimiento explícito de los individuos involucrados podría haber prevenido acciones legales contra la startup de IA.

Mientras tanto, en sus respuestas escritas a Bitcoin.com News, Fernandez declaró que los hallazgos del estudio Índice de IA de la Universidad de Stanford, que indican que el costo de entrenar modelos de IA de última generación se ha disparado, son mayormente correctos. Sin embargo, Fernandez también señaló que las pequeñas empresas de IA con recursos financieros limitados todavía pueden competir efectivamente al enfocarse en mercados de nicho y adoptar herramientas de código abierto.

Con respecto al papel de los reguladores, Fernandez enfatizó la necesidad de estándares claros en los servicios de IA. Recomendó auditorías regulares y penalizaciones por incumplimiento. Adicionalmente, destacó la importancia de la colaboración internacional para abordar desafíos transfronterizos y promover la conciencia pública a través de la educación sobre prácticas seguras de IA.

En las respuestas restantes, Fernandez compartió sus insights sobre la trayectoria de la industria de IA durante los próximos cinco años y discutió el delicado equilibrio entre fomentar la innovación y salvaguardar al público.

Bitcoin.com News (BCN): El pasado mayo, una pareja demandó a la startup de IA basada en Berkeley, Lovo, acusando a la compañía de usurpar sus voces. Este caso destaca una creciente brecha entre creadores y compañías de IA que son acusadas de amasar indiscriminadamente enormes cantidades de datos para alimentar su tecnología. ¿En su opinión, la firma de IA estaba justificada al usar las voces de individuos para el entrenamiento de sistemas sin su permiso? ¿Qué pasos alternativos podría haber tomado para prevenir acción legal?

Alberto Fernandez (AF): Usar la voz de cualquier individuo para el entrenamiento de sistemas sin su permiso, infringe los derechos de privacidad, viola las leyes de propiedad intelectual y viola los estándares éticos al ignorar la autonomía de los individuos. Para prevenir acciones legales, LOVO debería haber obtenido el consentimiento explícito de los individuos, asegurando transparencia sobre cómo se usarían sus voces. Alternativamente, la compañía podría haber usado datos de voz públicamente disponibles o de código abierto, creado datos de voz sintéticos o anonimizado y agregado los datos para mitigar preocupaciones de privacidad.

BCN: Las complejidades relacionadas con la gestión de datos en esta era de tecnologías emergentes parecen centrarse en los protocolos regulatorios existentes y sus limitaciones. Las leyes actuales restringen la innovación, sin embargo, removerlas podría potencialmente exponer a la industria a riesgos ilimitados. ¿Cómo pueden las autoridades equilibrar las regulaciones de gestión de datos que protejan al público de los riesgos existentes con el fomento de la innovación?

AF: Equilibrar las regulaciones de gestión de datos para proteger al público mientras se fomenta la innovación requiere un marco regulatorio dinámico y flexible. Las autoridades deberían adoptar un enfoque basado en riesgos que adapte las regulaciones al nivel de riesgo asociado con diferentes tipos de datos y tecnologías, asegurando una protección robusta para los datos sensibles mientras se permite más lenidad para las innovaciones de menor riesgo.

Implementar cajas de arena regulatorias puede proporcionar un ambiente controlado donde las nuevas tecnologías pueden probarse bajo supervisión regulatoria, facilitando la innovación sin comprometer la seguridad. Además, un diálogo continuo entre reguladores, partes interesadas de la industria y el público puede ayudar a adaptar las regulaciones a las tecnologías emergentes, asegurando que permanezcan relevantes y efectivas sin sofocar el progreso tecnológico.

BCN: Las implicaciones regulatorias representan sólo un aspecto de los numerosos desafíos que enfrenta la industria de IA. Un informe reciente de la Universidad de Stanford revela que el costo sustancial de entrenar modelos de IA está impidiendo la participación de entidades no industriales. ¿Está de acuerdo con los hallazgos del estudio de la Universidad de Stanford sobre limitaciones inducidas por costos? Si es así, ¿cómo cree que las empresas emergentes de IA pueden manejar la situación para evitar la extinción?

AF: Estoy de acuerdo con el estudio de la Universidad de Stanford sobre la significativa barrera de costo de entrenar modelos de IA para entidades no industriales. Además, aprovechar plataformas de IA basadas en la nube y colaborar con instituciones académicas y consorcios proporciona más avenidas para recursos costeables y financiamiento de investigación compartido. Enfocarse en mercados de nicho y abrazar herramientas de código abierto también mejora la accesibilidad, empoderando a las pequeñas empresas de IA para innovar y competir efectivamente en la industria.

BCN: Como el representante del ecosistema para Europa de Qubic, una cadena de Layer-1 enfocada en inteligencia artificial (IA), ¿cuáles son las contribuciones que está haciendo al desarrollo ético de la IA? ¿Nos podría contar brevemente sobre las principales soluciones que ofrece para abordar los desafíos que enfrenta la industria de IA?

BCN: Como el representante del ecosistema fundador de Qubic, mis contribuciones al desarrollo ético de la IA incluyen garantizar transparencia, promover la privacidad de datos y fomentar el acceso inclusivo a las tecnologías de IA. Qubic aborda los desafíos de la industria de IA al ofrecer una infraestructura escalable y segura, facilitando la gestión descentralizada de datos e implementando mecanismos de gobernanza robustos para mantener los estándares éticos.

Nuestras soluciones empoderan a los desarrolladores para construir aplicaciones de IA que son innovadoras y alineadas con principios éticos, impulsando el avance responsable de la IA. Adicionalmente, recientemente invitamos a la UNESCO a nuestro último evento sobre IA, destacando nuestro compromiso con el desarrollo ético de la IA y subrayando nuestra dedicación a los estándares éticos globales, asegurando que la tecnología de IA beneficie a toda la humanidad de manera responsable.

BCN: ¿Qué roles pueden jugar las autoridades regulatorias en diversas jurisdicciones para proteger a los ciudadanos de la explotación por parte de actores maliciosos que ofrecen servicios supuestamente de IA?

AF: Las autoridades regulatorias pueden proteger a los ciudadanos estableciendo estándares claros para los servicios de IA, realizando auditorías regulares, imponiendo penalizaciones por incumplimiento y promoviendo transparencia. También deberían facilitar la colaboración internacional para abordar desafíos transfronterizos y asegurar la conciencia pública mediante la educación sobre prácticas seguras de IA.

BCN: Qubic utiliza un mecanismo de consenso único llamado la Prueba de Trabajo Útil. ¿Podría explicar a nuestros lectores qué es y por qué sintió la necesidad de desarrollarlo?

AF: Qubic emplea un mecanismo de consenso basado en quórum, inspirado en el papel de Nick Szabo, que requiere un número mínimo de miembros para estar de acuerdo con el fin de aprobar una transacción. Esto es en contraste con nuestro algoritmo de minería, Prueba de Trabajo Útil (uPoW). El algoritmo uPoW asegura que los esfuerzos computacionales se dirigen hacia tareas prácticas, mejorando así la eficiencia y la utilización de recursos. Este enfoque innovador combina la minería con trabajo útil, haciendo la red más productiva y sostenible mientras mantiene una seguridad robusta a través del consenso basado en quórum.

BCN: Por último, ¿dónde ve la industria de IA dentro de cinco años?

AF: En los próximos cinco años, preveo que la industria de IA hará avances significativos hacia un desarrollo más ético y responsable, impulsado por varios avances tecnológicos. El foco estará en democratizar el acceso a tecnologías de IA avanzadas asegurando estándares éticos mediante prácticas transparentes y responsables. Podemos esperar que la IA se integre cada vez más en la vida cotidiana, mejorando significativamente la eficiencia en diversas industrias y mejorando las experiencias personalizadas de los usuarios.

Además, puedo anticipar que el desarrollo de la Inteligencia General Artificial (AGI) alcanzará hitos críticos dentro de este marco temporal. Los esfuerzos colectivos dentro de la comunidad de IA apuntan a moldear un futuro donde la IA beneficie a la sociedad en su conjunto, fomentando la innovación y el progreso tecnológico responsable.

¿Cuáles son tus pensamientos sobre esta entrevista? Comparte tus opiniones en la sección de comentarios a continuación.

Etiquetas en esta historia