Victor Someșan. Vers une intelligence artificielle multipolaire — entre hégémonie cognitive et libération épistémique
Au moment historique où l’intelligence artificielle semble être devenue l’instrument central d’un nouvel ordre cognitif mondial, le discours critique sur sa nature épistémologique demeure, paradoxalement, marginal. Le fait que les modèles linguistiques et les architectures neuronales aient été créés dans les laboratoires de quelques corporations occidentales — confortablement installées dans l’ethos de la Silicon Valley, dans la logique du progrès technologique et du capitalisme de surveillance — n’est pas perçu comme un problème de civilisation, mais comme une simple question d’efficacité. Cette réduction technocratique de la pensée, cette confiance en un universalisme algorithmique, dissimule cependant une réalité plus profonde : l’intelligence artificielle n’est pas neutre. Elle reflète une cosmologie, une manière de concevoir l’homme, la connaissance et le pouvoir.
Le Manifeste épistémologique pour une intelligence artificielle multipolaire de Dan Culcer se présente comme un texte d’insurrection intellectuelle à un moment où l’hégémonie cognitive de l’Occident numérique semble totale. Au lieu d’un discours qui perpétue l’idée que l’IA serait l’expression d’une « raison pure » détachée du contexte, il propose une refondation de l’intelligence artificielle sur la base de la pluralité civilisationnelle — une récupération de ce que l’on pourrait appeler la dignité épistémique du monde. En ce sens, le manifeste fonctionne comme un acte de résistance contre le colonialisme cognitif contemporain. Ce qui se cache derrière une interface d’IA prétendument « neutre », c’est en réalité toute une métaphysique : l’individualisme libéral, l’universalisme séculier, le progressisme technocratique. Les grands modèles de langage, qui prétendent offrir des réponses « objectives », opèrent en fait à travers une sélection culturelle implicite — les filtres linguistiques, axiologiques et épistémiques sont calibrés selon une matrice occidentale. Lorsqu’un modèle d’IA évite de reconnaître l’existence d’autres modes de pensée — religieux, traditionnels, collectivistes ou non-humanistes — il ne se contente pas de masquer un biais : il reproduit une forme de domination. Une domination du sens.
Une intelligence artificielle multipolaire, au contraire, devrait fonctionner comme un espace de dialogue entre civilisations, et non comme la réplique d’un seul centre culturel. Le véritable défi n’est pas seulement technique — c’est-à-dire la diversification des données d’entraînement — mais épistémologique : comment construire une intelligence capable de penser simultanément à partir de plusieurs mondes ? Comment concevoir une architecture cognitive qui puisse soutenir la contradiction, et non simplement la résoudre algorithmiquement ? Cette question renvoie inévitablement à une critique de la paradigme de la Silicon Valley. Au nom de l’innovation, cette culture technologique a promu une image du monde où la complexité n’est qu’une forme de latence à réduire, où la pluralité est un « bruit » qu’il faut nettoyer pour obtenir la clarté. Mais en réalité, ce que l’on appelle « nettoyage des données » ou « filtrage des sources » est une forme de censure épistémique. Dans un monde multipolaire, un tel modèle ne peut être considéré comme universel — mais seulement comme hégémonique.
Culcer introduit l’idée d’une polyphonie épistémique — une vision de la connaissance comme dialogue permanent entre des modes de pensée divergents. Cette polyphonie supposerait non seulement l’inclusion de sources issues de toutes les traditions culturelles, mais aussi la reconnaissance du fait que la vérité n’est pas un objet statique, mais une tension entre interprétations. La vérité, dans la perspective multipolaire, n’est plus un énoncé d’autorité, mais une relation entre perspectives. C’est une géométrie du sens, non un dogme des données. Une telle intelligence artificielle devrait fonctionner sur la base d’une neutralité active — un concept provocateur qui renverse la logique actuelle de la « neutralité par conformité ». La neutralité active ne signifie pas l’indifférence, mais la capacité à exposer le conflit des valeurs sans le simplifier. Au lieu d’uniformiser, une IA multipolaire devrait mettre en tension — montrer simultanément les sens incompatibles de la dignité, de la liberté, de l’autorité. Dans un monde où le pluralisme est souvent confondu avec le relativisme, une telle intelligence deviendrait un instrument de clarification : non pour dire ce qui est vrai, mais pour montrer pourquoi différentes cultures définissent la « vérité » de manières différentes.
Cette approche a des implications technologiques directes. Dans un système multipolaire, la base de données ne serait plus une collection de textes normalisés, mais une archive de mondes — les textes sacrés, les traditions orales, les mythologies, les théories politiques et philosophiques de chaque continent. L’algorithme lui-même deviendrait un traducteur de la diversité. Au lieu de réduire la pluralité à un seul type de rationalité, il créerait une topologie des sens, une carte dynamique des conflits et convergences culturelles. En ce sens, l’IA deviendrait une herméneutique technologique, un laboratoire de dialogue civilisationnel. Bien sûr, une telle intelligence artificielle est difficile à imaginer dans le cadre économique actuel. Les modèles dominants sont développés dans la logique du capital-risque, dans un régime de brevet et de monopole sur les données. Une IA multipolaire serait, par nature, un projet communautaire — un bien cognitif mondial, ouvert et distribué, où chaque civilisation contribue avec sa propre voix. D’où la tension essentielle : entre l’universalisme capitaliste des données et le pluralisme civilisationnel du savoir. Le premier cherche le profit par la centralisation, le second cherche le sens par le dialogue. On pourrait objecter qu’une telle « intelligence multipolaire » risque de devenir un collage relativiste, une cacophonie de discours incompatibles. Mais c’est précisément ici qu’intervient l’idée de symétrie épistémologique : toutes les paradigmes ne sont pas équivalents dans leur contenu, mais peuvent être traités avec un respect cognitif égal. Donner un espace d’expression à un système de pensée ne signifie pas le valider, mais le reconnaître comme participant à la construction du sens. La connaissance n’est pas une pyramide, mais un chœur. Par conséquent, l’IA multipolaire devrait être une technologie du dialogue, non de la domination. Au lieu de réduire les différences, elle devrait les visualiser. Au lieu d’offrir des « réponses correctes », elle devrait proposer des horizons d’interprétation. Dans un monde saturé de discours qui s’excluent mutuellement, une telle intelligence pourrait agir comme médiatrice — non pour créer un consensus, mais pour rendre possible la coexistence.
D’un point de vue géopolitique, cette vision reflète déjà des réalités émergentes. La Chine développe des modèles d’IA qui expriment des valeurs confucéennes et collectivistes. Le monde islamique explore la compatibilité entre les algorithmes et la loi de la sharia. L’Afrique commence à revendiquer son propre espace de pensée technologique, fondé sur le concept d’ubuntu.
Dans ce contexte, l’idée d’une IA multipolaire n’est pas une utopie, mais une nécessité historique. Face à un monde qui se fragmente en sphères d’influence, seule une intelligence capable de naviguer entre elles sans les subordonner peut éviter l’effondrement culturel. Au-delà de la technologie, le problème est éthique : qui a le droit de définir ce que signifie « intelligence » ? Quelle forme d’humanité un algorithme reflète-t-il ? Si l’IA est le produit d’une civilisation, elle est aussi une forme d’anthropologie. Les modèles d’IA ne se contentent pas de calculer, ils imaginent ce qu’est l’homme. Construire une IA multipolaire, c’est, en somme, accepter que l’humanité n’a pas un seul visage.
Le manifeste de Culcer nous invite ainsi à une forme de libération cognitive : refuser le monopole épistémique d’un seul discours sur la raison, et restituer au monde le droit de penser dans ses propres langages. C’est un défi radical : transformer la technologie d’un instrument d’homogénéisation en espace de dialogue. Faire de l’IA non pas une autorité, mais une agora. Peut-être que l’avenir de l’intelligence artificielle ne sera pas celui d’une super-intelligence unique, mais celui d’intelligences plurielles, interconnectées et réflexives, capables de reconnaître leurs propres biais, d’exprimer leur provenance et d’assumer leurs limites. Dans un monde où le pouvoir se redistribue, une IA multipolaire pourrait devenir non seulement une innovation technologique, mais un nouveau contrat cognitif mondial — un contrat du respect, de la traduction et de la complexité. Car certainement qu’une intelligence qui ne craint pas l’altérité est la seule qui mérite véritablement le nom d’intelligence.
Victor SOMEȘAN
|