Pour anticiper les poursuites judiciaires et contrer les allégations selon lesquelles ils entraînent leurs modèles d’intelligence artificielle (IA) avec des données obtenues illégalement, les entreprises d’IA devraient s’appuyer sur des données publiques ou open-source, selon Alberto Fernandez. Fernandez, un partisan de l’IA décentralisée et également le représentant européen de Qubic Ecosystem, souligne que les entreprises d’IA devraient envisager d’anonymiser et d’agréger les données pour répondurer aux préoccupations relatives à la vie privée.
Les outils open source nivellent le terrain de jeu pour les petites entreprises d'IA, déclare le partisan de l'IA décentralisée
Cet article a été publié il y a plus d'un an. Certaines informations peuvent ne plus être actuelles.

Le coût de la formation des modèles d’IA représente une barrière significative à l’entrée
Se référant à une affaire en mai où la startup d’IA Lovo a été poursuivie pour avoir prétendument usurpé les voix de deux acteurs, Fernandez a convenu avec les plaignants que les actions de la startup constituaient une violation des droits à la vie privée. De plus, il a soutenu que l’acte enfreignait les normes éthiques en méprisant l’autonomie des acteurs. Le représentant de l’écosystème Qubic suggère que le consentement explicite des personnes impliquées aurait pu empêcher une action en justice contre la startup d’IA.
Dans ses réponses écrites aux questions de Bitcoin.com News, Fernandez a déclaré que les conclusions de l’étude de l’Indice d’IA de l’Université de Stanford, qui indiquent que le coût de la formation des modèles d’IA de pointe a explosé, sont globalement correctes. Cependant, Fernandez a également noté que les petites entreprises d’IA ayant des ressources financières limitées peuvent encore être compétitives en se concentrant sur des marchés de niche et en adoptant des outils open-source.
Concernant le rôle des régulateurs, Fernandez a souligné la nécessité de normes claires dans les services d’IA. Il a recommandé des audits réguliers et des sanctions pour non-conformité. De plus, il a souligné l’importance de la collaboration internationale pour aborder les défis transfrontaliers et promouvoir la sensibilisation du public grâce à l’éducation sur les pratiques sécuritaires de l’IA.
Dans les réponses restantes, Fernandez a partagé ses insights sur la trajectoire de l’industrie de l’IA au cours des cinq prochaines années et a discuté de l’équilibre délicat entre le soutien à l’innovation et la protection du public.
Bitcoin.com News (BCN) : En mai dernier, un couple a poursuivi la startup d’IA basée à Berkeley, Lovo, accusant l’entreprise d’avoir usurpé leurs voix. Cette affaire souligne un fossé croissant entre les créateurs et les entreprises d’IA accusées d’amasser sans discernement des trésors de données pour alimenter leur technologie. À votre avis, l’entreprise d’IA était-elle justifiée d’utiliser les voix des individus pour l’entraînement de systèmes sans leur permission? Quelles mesures alternatives aurait-elle pu prendre pour éviter une action en justice?
Alberto Fernandez (AF) : Utiliser la voix de quelconques individus pour l’entraînement de système sans leur permission, enfreint les droits à la vie privée, viole les lois sur la propriété intellectuelle et les normes éthiques en méprisant l’autonomie des individus. Pour éviter une action en justice, LOVO aurait dû obtenir le consentement explicite des individus, en assurant la transparence sur la manière dont leurs voix seraient utilisées. Alternativement, l’entreprise aurait pu utiliser des données vocales publiques ou open-source, créer des données vocales synthétiques, ou anonymiser et agréger les données pour atténuer les préoccupations de confidentialité.
BCN : Les complexités liées à la gestion des données à cette ère de technologies émergentes semblent se concentrer sur les protocoles réglementaires existants et leurs limites. Les lois actuelles restreignent l’innovation, mais leur suppression pourrait potentiellement exposer l’industrie à des risques illimités. Comment les autorités peuvent-elles équilibrer les réglementations de gestion des données qui protègent le public contre les risques existants tout en favorisant l’innovation?
AF : Équilibrer les réglementations de gestion des données pour protéger le public tout en favorisant l’innovation nécessite un cadre réglementaire dynamique et flexible. Les autorités devraient adopter une approche basée sur le risque qui adapte les réglementations au niveau de risque associé à différents types de données et technologies, assurant une protection robuste pour les données sensibles tout en laissant plus de liberté pour les innovations à faible risque.
La mise en œuvre de bancs d’essai réglementaires peut fournir un environnement contrôlé où de nouvelles technologies peuvent être testées sous la surveillance réglementaire, facilitant l’innovation sans compromettre la sécurité. De plus, un dialogue continu entre les régulateurs, les parties prenantes de l’industrie et le public peut aider à adapter les réglementations aux technologies émergentes, en garantissant qu’elles restent pertinentes et efficaces sans freiner le progrès technologique.
BCN : Les implications réglementaires ne représentent qu’une facette des nombreux défis auxquels l’industrie de l’IA est confrontée. Un rapport récent de l’Université de Stanford révèle que le coût substantiel de la formation des modèles d’IA freine la participation d’entités non industrielles. Êtes-vous d’accord avec les conclusions de l’étude de l’Université de Stanford sur les limitations induites par les coûts? Si oui, comment pensez-vous que les entreprises d’IA émergentes peuvent gérer la situation pour éviter de disparaître?
AF : Je suis d’accord avec l’étude de l’Université de Stanford sur la barrière de coût significative de la formation des modèles d’IA pour les entités non industrielles. De plus, tirer parti des plateformes d’IA basées sur le cloud et collaborer avec des institutions académiques et des consortiums offrent d’autres voies pour des ressources rentables et un financement de recherche partagé. Se concentrer sur des marchés de niche et adopter des outils open-source améliore également l’accessibilité, permettant à de petites entreprises d’IA d’innover et de concurrencer efficacement dans l’industrie.
BCN : En tant que représentant de l’écosystème pour l’Europe de Qubic, une chaîne de couche 1 axée sur l’intelligence artificielle (IA), quelle sont les contributions que vous apportez au développement éthique de l’IA? Pouvez-vous nous parler brièvement des solutions clés que vous proposez pour répondre aux défis auxquels l’industrie de l’IA est confrontée?
BCN : En tant que fondateur représentant de l’écosystème de Qubic, mes contributions au développement éthique de l’IA incluent assurer la transparence, promouvoir la confidentialité des données et favoriser un accès inclusif aux technologies de l’IA. Qubic répond aux défis de l’industrie de l’IA en offrant une infrastructure évolutive et sécurisée, facilitant la gestion décentralisée des données et mettant en œuvre des mécanismes de gouvernance robustes pour respecter les normes éthiques.
Nos solutions permettent aux développeurs de créer des applications d’IA innovantes et conformes aux principes éthiques, favorisant ainsi l’avancement responsable de l’IA. De plus, nous avons récemment invité l’UNESCO à notre dernier événement sur l’IA, soulignant notre engagement envers le développement éthique de l’IA et notre dévouement aux normes éthiques mondiales, en garantissant que la technologie de l’IA profite à toute l’humanité de manière responsable.
BCN : Quel rôle les autorités réglementaires de différentes juridictions peuvent-elles jouer pour protéger les citoyens de l’exploitation par de mauvais acteurs proposant des services présumés d’IA?
AF : Les autorités réglementaires peuvent protéger les citoyens en établissant des normes claires pour les services d’IA, en menant des audits réguliers, en appliquant des sanctions pour non-conformité et en favorisant la transparence. Elles devraient également faciliter la collaboration internationale pour aborder les défis transfrontaliers et assurer la sensibilisation du public grâce à l’éducation sur les pratiques sécuritaires de l’IA.
BCN : Qubic utilise un mécanisme de consensus unique appelé Useful Proof of Work. Pouvez-vous expliquer à nos lecteurs ce que c’est et pourquoi vous avez ressenti le besoin de le développer?
AF : Qubic emploie un mécanisme de consensus basé sur le quorum, inspiré du document de Nick Szabo, qui nécessite qu’un nombre minimum de membres soit d’accord pour approuver une transaction. Cela contraste avec notre algorithme de minage, Useful Proof of Work (uPoW). L’algorithme uPoW assure que les efforts de calcul sont dirigés vers des tâches pratiques, améliorant ainsi l’efficacité et l’utilisation des ressources. Cette approche innovante combine le minage avec un travail utile, rendant le réseau plus productif et durable tout en maintenant une sécurité robuste grâce au consensus basé sur le quorum.
BCN : Enfin, où voyez-vous l’industrie de l’IA dans cinq ans?
AF : Dans les cinq prochaines années, j’imagine l’industrie de l’IA faisant des progrès significatifs vers un développement plus éthique et responsable, entraîné par diverses avancées technologiques. L’accent sera mis sur la démocratisation de l’accès aux technologies d’IA avancées tout en assurant des normes éthiques grâce à des pratiques transparentes et responsables. Nous pouvons nous attendre à ce que l’IA devienne de plus en plus intégrée dans la vie quotidienne, améliorant considérablement l’efficacité dans diverses industries et améliorant les expériences utilisateur personnalisées.
De plus, je peux anticiper que le développement de l’intelligence générale artificielle (AGI) atteindra des jalons critiques dans ce délai. Les efforts collectifs au sein de la communauté de l’IA visent à façonner un avenir où l’IA bénéficie à la société dans son ensemble, favorisant l’innovation et le progrès technologique responsable.
Quelle est votre opinion sur cette interview? Partagez vos opinions dans la section des commentaires ci-dessous.














