top of page
Rechercher

Du code à la culture : naviguer dans l'ère de l'IA

ree

Je suis un codeur dont la syntaxe est devenue rouillée, appelé plus souvent à la rescousse que par la routine. Autrefois, je vivais dans les touches et la lueur de l'écran, écrivant des algorithmes sur des cahiers entiers et déboguant jusqu'à l'aube. J'ai créé un jeu de conduite qui a accompagné mes amis pendant de longues nuits, et un programme télex qui envoyait des ordres dans le monde entier sans interruption. C'était l'art d'une autre époque, où des semaines de travail permettaient de terminer ce qui pouvait être terminé avant midi.

                           

Aujourd'hui, le rôle a changé. Je cadre le problème, j'esquisse la logique et je définis le transfert. Puis l'IA prend le relais, transformant les grandes lignes en exécution. Les heures remplacent les semaines, et ce qui semblait autrefois une invention à la lueur du feu avance désormais à la vitesse d'un fil sous tension. Ce changement n'est pas le mien seul. C'est un moment partagé, une nouvelle façon de concevoir la façon dont nous construisons, gouvernons et vivons avec la technologie.

 

Cette accélération explique pourquoi une poignée de fondateurs peuvent réaliser ce qui exigeait autrefois des armées de programmeurs. Des startups qui auraient pu avancer péniblement progressent désormais, propulsées par des outils qui génèrent autant qu'ils obéissent. Les frontières de la programmation se sont élargies, et les anciennes limites d'effectifs et de temps ont disparu.

 

Mais la rapidité a son importance. Les questions de travail, d'équité, de confidentialité, d'énergie, de propriété et d'abus se posent à chaque avancée. Pour chaque cas d'IA ouvrant la voie à la découverte, un autre révèle des biais dans le recrutement, des mensonges qui se propagent plus vite que la vérité, ou une créativité réduite à la réplication. Ces risques ne sont pas abstraits. Ils façonnent la confiance, et sans confiance, même les outils les plus puissants s'effondrent.

 

Nous ne pouvons pas attendre des réponses parfaites. Le progrès avance, que nous le sachions ou non. Il s'agit de le façonner, d'exiger la clarté, d'intégrer l'apprentissage et l'adaptation à chaque étape. Pour suivre le rythme de la technologie, nous devons enseigner tout en déployant nos ressources, gouverner tout en construisant et nous adapter au fur et à mesure.

 

C'est le cadre de cet article. De la programmation aux données en passant par l'infrastructure, nous examinerons non pas un avenir lointain, mais le monde qui se profile déjà à nos portes.

 

Plan d'action et décrets exécutifs américains sur l'IA

 

Les questions ne sont plus abstraites. Les nations élaborent déjà leurs stratégies, décidant dans quelle mesure elles encouragent l'innovation, réglementent et protègent leurs propres intérêts. Les États-Unis ont maintenant présenté leur dernier plan, fruit d'essais, d'erreurs et d'ajustements, marquant une nouvelle étape dans leur stratégie pour concourir dans cette course où d'autres ont déjà posé leurs jalons.

 

Ce plan s'appuie sur des années d'efforts, faisant suite à des politiques antérieures qui ont testé des idées, révélé des lacunes et marqué des progrès. Comme tout inventeur le sait, l'échec n'est pas un revers, mais une étape vers le perfectionnement. La stratégie actuelle des États-Unis reflète à la fois ce qui a fonctionné et ce qui n'a pas fonctionné, en synthétisant ces leçons dans un cadre plus réfléchi. C'est un plan d'action, rédigé au crayon, prêt à être révisé.

 

Publié sous l'administration Trump sous le titre Winning the AI Race: America's AI Action Plan, le cadre repose sur trois piliers fondamentaux :

 

1. Accélérer l'innovation en réduisant les obstacles réglementaires qui ralentissent le développement et le déploiement

2. Infrastructure du bâtiment, y compris la capacité énergétique et du centre de données dont l'IA a besoin pour fonctionner à grande échelle

3. Être un leader international en veillant à ce que la technologie et les normes américaines façonnent l'avenir mondial

 

Le plan englobe plus de quatre-vingt-dix mesures fédérales, allant du développement de la main-d'œuvre à la politique énergétique, en passant par les normes d'approvisionnement et le contrôle des exportations. L'accent mis sur la déréglementation et les infrastructures témoigne d'une attitude favorable à l'innovation, mais le succès dépendra de la capacité du gouvernement à s'adapter. La protection de la vie privée, l'impact environnemental et l'équité ne peuvent être ignorés ; ils doivent être intégrés à la dynamique même qui stimule la croissance. L'objectif n'est pas de crier victoire, mais de rester compétitif dans une compétition sans ligne d'arrivée. Il ne s'agit pas d'un sprint vers un objectif, mais d'une course de longue haleine pour rester inventif, ouvert et pertinent à l'échelle mondiale.

 

Approches mondiales du développement de l'IA

 

Les États-Unis ne sont pas les seuls à façonner les règles de l'IA. L'Union européenne met en œuvre l'AI Act, un cadre réglementaire complet visant une surveillance fondée sur les risques et des normes de transparence strictes. La stratégie chinoise allie des investissements agressifs dans l'IA à un contrôle gouvernemental strict des modèles, des ensembles de données et des résultats. Des pays comme Singapour, le Canada et le Royaume-Uni se positionnent comme des pôles de recherche éthique en IA, tandis que d'autres se concentrent sur les applications militaires et de surveillance. Les Émirats arabes unis et d'autres pays du Moyen-Orient émergent également comme acteurs de l'IA, associant investissements nationaux à des stratégies de diversification économique plus larges et affichant leur volonté de façonner les marchés mondiaux de l'IA.

 

Ces approches reflètent les priorités nationales et les valeurs culturelles. L'UE privilégie la précaution et la protection des consommateurs. La Chine privilégie le contrôle centralisé et l'intégration aux objectifs de l'État. Les États-Unis privilégient une croissance axée sur le marché et la rapidité de l'innovation. Les Émirats arabes unis positionnent l'IA dans le cadre d'un programme économique et d'innovation plus large. Aucune de ces voies n'est exempte de compromis. La course mondiale ne se limite pas à savoir qui construira l'IA la plus performante, mais aussi qui définira les normes qui régiront son utilisation à l'échelle mondiale. La véritable compétition porte sur la confiance, l'adoption et l'influence sur les normes qui guideront l'intégration de l'IA dans la vie quotidienne. Ces approches concurrentes façonneront non seulement la technologie, mais aussi les règles, les libertés et les présupposés culturels qui la guident.

 

Cette concurrence mondiale est importante car la manière dont les nations établissent les règles déterminera l'utilisation de l'IA et, plus important encore, la manière dont elle peut servir les citoyens. L'IA ne constitue pas une menace pour le progrès de l'humanité. Elle est un indicateur des possibilités d'ingéniosité humaine. Elle peut prendre en charge les tâches répétitives et gourmandes en données, nous laissant ainsi plus de temps pour réfléchir, concevoir et résoudre des problèmes. Bien utilisée, l'IA peut contribuer à prédire les catastrophes avant qu'elles ne surviennent, améliorer les résultats médicaux et rendre l'éducation personnelle et accessible partout. Comme tout outil, elle reflète l'intention de ceux qui la développent et l'utilisent. La véritable opportunité réside dans le développement de l'IA de manière à magnifier le meilleur de l'être humain.

 

Pour concrétiser cette opportunité, il faut plus qu'une vision. Il faut la capacité physique de rendre l'IA possible à grande échelle. Cela implique des centres de données avancés, des systèmes énergétiques résilients et l'expertise technique nécessaire pour les exploiter. Ces actifs constituent l'épine dorsale de toute stratégie d'IA sérieuse. Sans eux, les politiques restent ambitieuses. Grâce à eux, les nations peuvent traduire leurs ambitions en résultats. L'infrastructure n'est pas une considération secondaire. Elle est le fondement de la souveraineté à l'ère numérique. La capacité à posséder et exploiter des centres de données, à sécuriser l'approvisionnement énergétique et à disposer d'une main-d'œuvre technique qualifiée détermine si l'IA devient un outil au service d'autrui ou une source de force nationale. C'est le fondement du pilier Infrastructures, qui considère l'IA non seulement comme du code et des données, mais comme un système ancré dans les capacités physiques et nationales.

 

Les centres de données comme cœur physique de l'IA

 

L'IA, c'est de l'énergie , des algorithmes et des données . Les centres de données sont le lieu où ces éléments se combinent et prennent forme. Ils ne sont pas optionnels ; ils en sont le cœur. La production d'électricité, les systèmes de refroidissement, les réseaux, la charge électrique et la stabilité du réseau constituent l'échafaudage qui les soutient, et leur fiabilité détermine la croissance de l'IA. L'augmentation des capacités ne se limite pas aux racks et aux serveurs ; c'est le travail des électriciens, des techniciens CVC et des ingénieurs réseau dont les compétences rendent l'évolutivité possible. Elle entraîne également une augmentation de la consommation d'énergie, avec des coûts environnementaux incontournables. Pourtant, les gains de productivité et d'innovation restent trop importants pour être ignorés. L'infrastructure donne à l'IA sa structure, tandis que les algorithmes et les données lui donnent son caractère. Et c'est dans ce caractère que résident les choix qui déterminent la partialité, la transparence et la confiance.

 

Biais, liberté de choix et transparence dans les systèmes d'IA

 

L'IA générale et les grands modèles linguistiques devraient fonctionner comme des dictionnaires ou des encyclopédies : fondés sur des faits incontestés et, lorsque les faits sont contestés, présentant clairement les preuves et notant les points de vue interprétatifs sans privilégier un camp. Cette neutralité garantit que l'IA est un outil impartial et factuel.

 

Les versions spécialisées sont acceptables lorsqu'elles explicitent leur point de vue. Un dictionnaire religieux ou une IA conçue pour les valeurs d'une communauté est valable si les utilisateurs savent ce qu'ils choisissent. Les préjugés ne sont pas toujours néfastes. Ils peuvent correspondre exactement au point de vue souhaité par l'utilisateur. Si un fournisseur crée un tel modèle, les préjugés doivent être clairs dès le départ, identifiés dès l'utilisation, à l'instar de l'étiquette d'avertissement sur un paquet de cigarettes. Les défenseurs peuvent promouvoir leurs propres versions, mais ils ne peuvent pas les imposer. La liberté d'expression autorise la diversité, mais les modèles ouverts et fondamentaux doivent rester neutres.

 

Les politiques gouvernementales devraient suivre le même principe. L'argent des contribuables ne devrait pas financer une IA biaisée. Les modèles gratuits ou en libre accès doivent soit rester neutres, soit exprimer clairement leur point de vue. Même ici, le défi réside dans la définition. Ce qui paraît neutre dans une culture peut paraître biaisé dans une autre. Certains pays commencent la semaine le dimanche, d'autres le lundi. Les deux sont logiques. Les systèmes de mesure diffèrent également. Un mile et un kilomètre décrivent chacun une distance, mais selon des conventions différentes. Si même les calendriers et les unités peuvent diviser l'interprétation, pourquoi devrions-nous croire que l'IA, conçue par l'homme, sera à l'abri ? La neutralité elle-même n'est pas universelle. Elle est façonnée par la culture, l'histoire et les perspectives.

 

Le récent décret sur les « Principes d'IA impartiale » reflète cette idée, en éloignant les marchés publics fédéraux des systèmes à tendance idéologique. Pourtant, des termes politiques comme « woke », même utilisés comme raccourcis, introduisent des biais inutiles. Les normes gouvernementales devraient s'ancrer dans des documents fondamentaux tels que la Constitution, en accordant une grande importance aux originaux, sauf s'ils sont remplacés, et en intégrant des perspectives historiques équilibrées lorsque les opinions divergent. Les IA devraient traiter les faits avec équité, sans privilégier un camp. Au mieux, ce sont des outils qui éliminent les obstacles, égalisent l'accès et étendent les opportunités à tous.

 

Confidentialité, droits d'auteur et droits numériques

 

La protection de la confidentialité des données d'entraînement et des saisies utilisateur évolue, tout comme la protection des droits d'auteur. Ce sur quoi nous entraînons les IA et ce que nous intégrons dans les invites doit être protégé. Les IA apprennent des schémas, et non un contenu exact. Elles peuvent sembler dupliquer le texte des données d'entraînement, mais la plupart des résultats sont probabilistes. Une duplication exacte peut se produire, mais souvent parce que le contenu est prévisible à partir de données publiques largement disponibles plutôt que d'une copie stockée.

 

Il est difficile d'affirmer que les systèmes qui hallucinent souvent et échouent parfois à des tâches simples, comme compter les « r » du mot « Fraise », commettent une violation délibérée du droit d'auteur. Leurs erreurs montrent que les résultats sont le fruit de prédictions probabilistes, et non d'œuvres stockées. Cette distinction est importante pour les politiques. Elle suggère que la plupart des cas de duplication apparente découlent d'erreurs d'apprentissage ou de modélisation statistique, et non d'une reproduction intentionnelle de contenus protégés.

 

En cas de duplication, la responsabilité doit être engagée, comme pour les humains. Cette responsabilité peut incomber aux créateurs, aux opérateurs ou aux entités qui tirent profit, financièrement ou autrement, du système. La doctrine de l'usage équitable offre une voie raisonnable. L'IA devrait pouvoir apprendre de toute ressource ouverte et disponible, tout en respectant le droit d'auteur en ne reproduisant pas intégralement les œuvres protégées.

 

Éducation et adoption mondiale des technologies

 

L'éducation reste essentielle pour doter les citoyens des compétences en IA et réduire les conséquences imprévues. L'IA complexifie l'éducation tout en la renforçant. Son adoption diffère selon les générations, non seulement aux États-Unis, mais dans le monde entier. Les jeunes adoptent souvent rapidement les nouvelles technologies, mais rapidité n'est pas synonyme de compréhension.

 

L'IA offre une chance d'égaliser les chances à l'échelle mondiale. Les étudiants des régions reculées peuvent accéder à des cours particuliers et à des ressources autrefois inaccessibles, même au niveau universitaire. La promesse est réelle, mais les limites le sont tout autant. On ne peut pas se fier uniquement à l'IA pour sa précision. L'apprentissage doit inclure la discipline nécessaire pour remettre en question et vérifier ses résultats.

 

L'opportunité n'est pas seulement d'élargir l'accès, mais aussi de façonner le jugement. Apprendre au monde à utiliser l'IA comme un outil factuel peut égaliser l'information, tout en préservant la responsabilité humaine de tester, d'interpréter et de décider.

 

Gouvernance, encadrement culturel et liberté d'expression

 

Le cadre culturel constituera l'un des défis les plus ardus. Il convient de prendre en compte les points de vue américains sur la liberté d'expression, même si des limites sont établies par la doctrine et les tribunaux. D'autres pays appliquent des normes différentes et leurs conceptions de l'expression divergent souvent du modèle américain.

 

Les gouvernements ne devraient pas forcer la suppression de faits ni insérer des éditoriaux ou de la propagande dans la formation de base des IA. Les termes à connotation politique dans les documents officiels, comme « woke », sont eux-mêmes biaisés et doivent être évités, car ils politisent une réglementation pourtant légitime.

 

Les normes gouvernementales en matière d'IA devraient s'inspirer de documents fondamentaux tels que la Constitution américaine et d'autres doctrines reconnues internationalement. Les documents originaux devraient avoir la plus grande importance, sauf s'ils sont explicitement écartés. Lorsque l'histoire offre des perspectives contradictoires, les deux devraient être incluses.

 

Les IA de base, en particulier celles présentées comme open source et exportées à l’échelle mondiale, devraient traiter les informations factuelles de manière égale sans privilégier un point de vue.

 

Compromis philosophiques et impact sociétal

 

Les besoins énergétiques de l'IA suscitent des préoccupations environnementales légitimes, mais ses gains de productivité sont susceptibles de compenser ses impacts globaux. Les préjudices individuels, cependant, ne peuvent être ignorés. Faire progresser l'IA exige des compromis. Elle a déjà bénéficié à de nombreuses personnes, avec des cas documentés où elle a sauvé des vies. Il existe également des cas où son utilisation est accusée d'avoir causé des dommages.

 

La productivité et l'innovation bénéficieront à un grand nombre de personnes, mais elles entraîneront aussi des déplacements. Ne pas faire progresser l'IA est également préjudiciable, privant les individus des bénéfices que ses innovations pourraient apporter. Il s'agit d'un dilemme philosophique, comparable à celui de décider lequel de deux patients gravement malades devrait recevoir le seul traitement vital disponible. Aucun de ces choix n'évite les pertes, mais un choix s'impose.

 

L'histoire montre que chaque innovation majeure a eu des conséquences mitigées. L'action ou l'inaction a toujours favorisé certains groupes et en a désavantagé d'autres, et l'IA ne fait pas exception. C'est un outil qui peut jouer en notre faveur ou contre nous. Les garde-fous sont essentiels, mais ils ne doivent pas rendre la route impraticable. Le défi consiste à équilibrer la dynamique avec des garde-fous qui protègent sans étouffer. La solution ne réside pas dans l'évitement de l'IA, mais dans son utilisation judicieuse.

 

Réflexions prospectives

 

J'ai commencé avec un objectif simple et une petite application utilitaire. Il y a quelques années, il m'aurait fallu une semaine ou plus pour la développer et la déboguer. Cette fois, l'IA a construit le cœur en quelques minutes, et je n'ai passé que quelques heures à le façonner selon mes envies. Ce petit projet reflète la situation dans son ensemble : l'IA accélère le possible, tout en s'appuyant sur l'imagination, la créativité, la direction, la correction et le jugement humains.

 

La tâche de l'Amérique et du monde est de transposer cette même dynamique à grande échelle. Construire rapidement. Corriger souvent. Rester engagé. Gouverner l'IA n'est pas une décision ponctuelle, mais une responsabilité permanente. Les lois rédigées aujourd'hui peuvent structurer à court terme, mais elles ne peuvent anticiper tous les tournants à venir. Même la Constitution, souvent citée comme avant-gardiste, offrait des principes généraux plutôt que des prescriptions fixes, laissant une marge d'adaptation. Cette flexibilité est le modèle que nous devrions suivre pour l'avenir de l'IA : des principes qui guident, soutenus par des politiques qui s'adaptent.

 

Les gouvernements agissent avec prudence parce qu'ils le doivent, mais l'IA évolue rapidement parce qu'elle le peut. Combler ce fossé ne consiste pas à abandonner la prudence, mais à trouver de nouvelles formes d'agilité. Le défi consiste à concilier stabilité et vision, à dépasser les déclarations à la une pour se consacrer à un travail de gestion constant, à gérer son temps, à légiférer avec vision et à gouverner avec humilité.

 

C’est là le travail qui nous attend : utiliser cette technologie avec sagesse, la laisser élargir les opportunités sans renoncer à notre jugement, et veiller à ce que ses progrès reflètent non seulement ce que nous pouvons construire, mais aussi qui nous choisissons d’être.


Brightside transforme ces principes en systèmes opérationnels, en appliquant l'IA aux communications par satellite, à l'orchestration des centres de données, à la réponse aux catastrophes et aux transports afin d'accroître la productivité humaine et de renforcer la souveraineté numérique. Nos objectifs sont clairs : construire rapidement, corriger souvent, prouver la confiance par des résultats.


~Mark Munger - Directeur technique de Brightside Industries

 
 
 

Commentaires


bottom of page