Introduction
L’intimidation et l’humiliation sont des pratiques psychosociales qui ont toujours marqué les échanges discursifs humains et accompagné les rapports de sexe et de genre en société, en impliquant l’insécurité linguistique ainsi que la violence verbale et non verbale (Lachkar, 2005 ; Calvet, 1999 ; Haugen, 1962 ; Auger et al., 2003, 2008, etc.), et une mise en scène de plusieurs formes de stéréotypage dans l’espace public et médiatique (Lachkar, 2007, 2013, 2014, 2019 ; Boyer, 2007 ; Lochard et Boyer, 1998, etc.). Cependant, à l’ère du numérique et de l’intelligence artificielle (IA), ces comportements prennent de nouvelles formes et posent des défis supplémentaires. Les interactions sociales ont migré vers des espaces virtuels où les normes de communication sont souvent floues, voire transgressées. Les réseaux sociaux, les forums et les plateformes de messagerie sont devenus des lieux d’expression, mais aussi des terrains propices à des formes de violence symbolique, telles que l’humiliation et l’intimidation. Ces comportements, lorsqu’ils s’inscrivent dans une logique de répétition et de mise en scène, relèvent de la cyberviolence. Ils affectent profondément les individus, en particulier les femmes, dont l’identité socioculturelle et émotionnelle se construit en continu. Ce travail se propose d’analyser les impacts sociolangagiers et psychosociolinguistiques de ces violences numériques, en mettant en lumière les mécanismes discursifs, iconiques, émotionnels, comportementaux et sociaux qui en découlent. Il expliquera comment l’IA a complexifié ce phénomène, en ouvrant des voies insidieuses et sophistiquées pour perpétrer ces actes répréhensibles. Ces nouvelles formes d’intimidation sont souvent plus difficiles à détecter et, par conséquent, plus destructrices. Les deepfakes, les chatbots malveillants et les algorithmes de recommandation peuvent amplifier l’intimidation, la rendant plus ciblée, persistante et dévastatrice. Selon Farthofer (2023, p. 308), les algorithmes d’IA peuvent discriminer systématiquement des individus en raison de leur appartenance à un groupe, ce qui peut avoir de « graves conséquences sur la vie d’un individu, dès lors qu’il est constamment confronté aux mesures prises contre lui ».
Il est vrai que l’intelligence artificielle offre des opportunités extraordinaires dans différents domaines, mais elle peut aussi révéler une face plus sombre lorsqu’elle est utilisée pour manipuler, harceler et intimider. Les deepfakes, par exemple, permettent de créer des vidéos ou des images hyperréalistes mais entièrement fausses, souvent utilisées pour diffamer ou humilier des individus ou des groupes. Les chatbots malveillants, quant à eux, peuvent inonder les réseaux sociaux de messages haineux ou menaçants, en ciblant systématiquement et automatiquement des personnes. Ces formes d’intimidation ont des répercussions considérables sur la vie des victimes, en affectant leur santé mentale, leur dignité, leur réputation et leur sécurité. Sous la forme d’insultes directes, d’appels téléphoniques ou de lettres anonymes menaçantes, l’intimidation n’est pas un phénomène nouveau : elle a bel et bien existé et a marqué la communication interindividuelle et collective dans plusieurs cultures avant l’ère numérique. Internet a démultiplié son impact, avec le développement de la technicité, la multiplication de la production de contenus et leur diffusion massive, sans frontières, notamment des contenus haineux, injurieux, stéréotypants et stéréotypiques, parce que les acteurs-usagers profitent de la possibilité de s’exprimer de manière anonyme sur les plateformes numériques.
Avec le développement des outils d’intelligence artificielle, l’intimidation est entrée dans une nouvelle ère. Les algorithmes de prédiction comportementale peuvent analyser les données personnelles des utilisateurs et fournir aux usagers-agresseurs des informations leur permettant d’adapter leurs contenus de manière plus précise et plus destructrice. Cette personnalisation rend l’intimidation plus efficace et plus douloureuse pour les personnes victimes. Ces algorithmes sont capables de détecter les fragilités émotionnelles d’un usager et de cibler les messages en conséquence. Autrement dit, malgré toutes les opportunités qu’offre l’intelligence artificielle, son développement soulève des interrogations d’ordre éthique, social, voire anthropologique. L’usage de l’intelligence artificielle engendre des pratiques périlleuses, telles que la diffusion malsaine d’informations et l’usurpation des données d’autrui pour le rabaisser et l’humilier. Cette cyberviolence, susceptible de se transformer en usurpation d’identité et en intimidation, repose sur la falsification de photos et de vidéos en vue d’agresser autrui. Il en résulte que, plus l’IA progresse et s’améliore, plus les tentatives d’escroquerie, de menace ou de chantage augmentent.
On l’aura compris, cette recherche se propose aussi d’étudier l’usage subjectivé des outils d’IA visant des individus ou des groupes précis, dans le but de leur faire subir différents types de cyberviolence, notamment la violence verbale, non verbale, sonore et visuelle, dans une perspective d’intimidation et d’humiliation. Nous partons de l’hypothèse générale selon laquelle l’investissement des outils offerts par le numérique dans les différentes formes de communication favoriserait une augmentation des formes sociolangagières injurieuses, en raison de la capacité de ces technologies à manipuler et diffuser des contenus plus ou moins crédibles, ou dont la véracité est rendue problématique au regard des conditions de production. Par conséquent, l’étude définira l’intimidation et l’humiliation en ligne à l’ère du numérique et de l’intelligence artificielle, puis présentera les enjeux éthiques liés à l’IA. Cela se fera à partir d’un traitement sémio-psycho-socio-discursif et pragmatique de quelques supports iconiques et audiovisuels (images, clichés, vidéos, commentaires) issus du paysage médiatique et numérique marocain, en analysant des processus d’intimidation, de dénigrement, de mépris et d’humiliation visant des personnalités célèbres et de notoriété publique. Cette recherche s’inscrit, en s’inspirant de la psychologie de l’humiliation (Lindner ; Balaya), dans le cadre des théories de l’analyse de contenu, de l’analyse du discours, ainsi que des théories de la violence symbolique (Bourdieu, 1980, 2001), de la sociologie du langage (Gumperz, 1989) et de la sociologie des interactions numériques (Boyd, 2014 ; Pasquier, 1999).
1. Violences en ligne et IA : comprendre, définir, agir
1.1.Mais qu’est-ce que l’intimidation et l’humiliation en ligne ?
Les pratiques discursives et les interactions langagières informent sur les pratiques linguistiques, culturelles, sociales et idéologiques des groupes et des individus ; c’est dans ces interactions que les usagers produisent leurs discours, donnent du sens à leurs constituants et aux actions qui en découlent, en impliquant non seulement des prises de pouvoir, mais aussi la mise en place de stratégies discursives ainsi que des positionnements sociaux et idéologiques (Gumperz, 1989 ; Eckert, 2019 ; Moïse, 2003 ; Charaudeau, 2007 ; Lachkar, 2007, 2010, 2011, 2012, etc.). C’est le cas des productions impliquant de la violence dans l’espace numérique.
De nos jours, toute activité de violence en ligne, par le biais d’Internet et des outils d’intelligence artificielle, est qualifiée de cyberviolence. Les manifestations les plus fréquentes de la cyberintimidation consistent à harceler, à humilier ou à tromper quelqu’un. Quel que soit son sexe ou son âge, nul n’en est épargné : tout individu peut être confronté à ce type de comportements psychosociaux. L’intimidation d’autrui — la victime —, par l’intermédiaire de contenus blessants, agressifs, menaçants, insultants ou moqueurs, exercée par une personne ou un groupe à l’encontre d’une autre via des moyens numériques, est banalisée de nos jours faute d’une éducation effective aux médias et aux règles qui les régissent ; cette pression s’exerce aussi à travers la diffusion de rumeurs ou d’informations privées et embarrassantes, dans le but de nuire à la réputation de la cible.
La cyberintimidation constitue, par conséquent, un phénomène largement étudié par les sciences humaines et sociales. Les résultats et concepts issus des travaux en psychologie, notamment ceux de Dan Olweus (1999) sur l’intimidation en milieu scolaire, ont été étendus à la cyberintimidation. Celle-ci se présente comme une forme de harcèlement qui utilise les technologies numériques pour humilier, intimider ou insulter une personne, où l’anonymat et la distance physique amplifient les comportements agressifs et peuvent causer des dommages psychologiques durables. Selon Sheri Bauman (2015), la cyberintimidation a des conséquences psychologiques sur la cible, notamment l’anxiété, la dépression et l’isolement social ; les victimes peuvent se sentir impuissantes face à la viralité des contenus numériques et à la difficulté à les supprimer. Hinduja et Patchin (2007), ainsi que Carvalho, Smith, Mahdavi, Russell et Tippett (2008), définissent la cyberintimidation comme « l’utilisation agressive des technologies de l’information et de la communication pour blesser une personne plus faible, de façon répétée et systématique sur une longue période ». Cependant, Smith et al. (2008) assimilent le cyberharcèlement à « un acte agressif, intentionnel, perpétré par un individu ou un groupe d’individus, au moyen de formes de communication électroniques, de façon répétée, à l’encontre d’une victime qui ne peut facilement se défendre seule ». Bill Belsey (2003) suggère une autre définition qui fait abstraction du déséquilibre de pouvoir : « Le cyberharcèlement implique l’utilisation des nouvelles technologies de l’information et de la communication dans le cadre d’une attitude hostile délibérée et répétée de la part d’un individu ou d’un groupe, avec l’intention de faire (du) mal. ».
L’intimidation et l’humiliation en ligne, souvent liées au cyberharcèlement, sont des phénomènes qui ne cessent de s’amplifier par l’emploi des nouvelles technologies de l’information et de la communication. Avec la multiplicité des plateformes numériques, les agresseurs peuvent désormais utiliser des outils d’IA, tels que les deepfakes ou les chatbots, pour créer des contenus diffamatoires ou humiliants de manière automatisée et plus crédible.
1.2.Cyberintimidation et intelligence artificielle
Malgré ses avantages, l’intelligence artificielle peut être utilisée à des fins malveillantes pour faciliter la cyberintimidation. Les outils d’IA peuvent servir à la génération automatique de messages blessants, de commentaires haineux ou de campagnes de dénigrement et de désinformation visant à discréditer une personne ou un groupe sur les réseaux sociaux. L’IA permet aussi de créer des deepfakes (vidéos, enregistrements audio et images truqués), avec la même intention de nuire à autrui et de le discréditer.
Par ailleurs, l’intelligence artificielle facilite l’anonymat et, sachant que les contenus humiliants ou intimidants peuvent être diffusés à grande échelle et durablement, certains agresseurs — se pensant invisibles — se sentent moins responsables de leurs actes et multiplient leurs propos injurieux. Ainsi, la personne victime de cyberintimidation peut entrer dans un état de stress et d’anxiété chronique. Plus encore, l’IA a amplifié les possibilités de violences de genre facilitées par la technologie auxquelles de nombreuses communautés peuvent être confrontées en ligne. Cela renforce des préjudices existants tels que la désinformation, le discours de haine, la cyberintimidation et l’usurpation d’identité.
Bref, la violence de genre facilitée par la technologie n’est pas seulement une manifestation d’intimidation et de harcèlement en ligne : il s’agit d’un acte intentionnel et malveillant visant autrui, au service d’objectifs discursifs, communicationnels, voire psychosociaux, préétablis par son ou ses auteurs.
2. IA : éthique, désinformation et violences en ligne
2.1. Enjeux éthiques liés à l’intelligence artificielle
Sur le plan éthique, des fondateurs et responsables de grandes plateformes et outils des technologies de l’information et de la communication, tels que Bill Gates, Elon Musk ou encore Stephen Hawking, ainsi que d’autres chercheurs spécialisés, mettent en garde contre les usages dangereux des TIC et insistent sur le rôle des cadres éthiques de l’intelligence artificielle. Parmi ces enjeux, la protection des données personnelles revêt une importance primordiale. L’utilisation massive de données au sein des systèmes d’IA peut compromettre la vie privée des individus si ces données ne bénéficient pas d’une sécurité et d’une protection adéquates contre les abus.
Il est vrai que l’expansion rapide d’Internet, des réseaux sociaux et de l’intelligence artificielle a créé de nouvelles opportunités, mais elle a également ouvert la porte à diverses menaces, notamment la cybercriminalité, la cyberintimidation, la diffusion de contenus illicites, la violation de la vie privée et l’exploitation abusive des données personnelles. Ainsi, Chanda (2024) perçoit l’IA comme une valeur ajoutée, tandis que Taguimdje et al. (2020) soulignent que cette valeur peut être détruite en raison des risques liés au développement et au déploiement de cette technologie. Chen et al. (2023) ont examiné l’aspect éthique de l’IA afin de rendre ce concept plus opérationnel ; d’un point de vue conceptuel, d’autres études ont tenté de définir l’intelligence artificielle responsable sous différents angles, tels que le respect de principes éthiques ou une approche technique axée sur l’intervention humaine, afin d’inciter les usagers des TIC à se conformer à des normes et à des réglementations axées sur le risque (Díaz-Rodríguez et al., 2023).
L’examen des pratiques et des comportements éthiques tout au long du cycle de vie d’un système d’IA devient une démarche cruciale, en raison des répercussions possibles sur l’humanité et l’écosystème dans son ensemble. Pour cette raison, les recherches sur la cybermenace prennent de l’importance, au vu de l’évolution des possibilités de harcèlement et d’attaques imprévues, ce qui ne peut que favoriser l’instauration d’initiatives réglementaires de protection de la vie individuelle et collective. Les cybermenaces ne passeront plus inaperçues et pourront être mieux contrôlées, ce qui renforcera la confiance dans l’utilisation des services d’IA.
2.2. L’IA face à la désinformation et à l’intimidation : cadres d’analyse
Le développement de l’apprentissage automatique, et notamment des réseaux antagonistes génératifs (GAN), est aujourd’hui indissociable de l’avènement des deepfakes et des hypertrucages, dont l’objectif est parfois d’humilier et d’intimider des personnalités célèbres ou publiques. Toutefois, les auteurs de ce type de contenus privilégient tout ce qui est contraire à une communication publique et politique saine, notamment à travers la création de contenus constituant un danger pour la vie publique, via des phénomènes d’ingérence et une perte de confiance dans les institutions et l’information politique, synonyme de désinformation.
En effet, l’utilisation de dispositifs d’IA permet de reproduire des détails intimes d’une personne en analysant ses données d’entrée telles que des photos, des vidéos ou des enregistrements sonores, afin de superposer ces éléments à un autre contenu numérique. Plus fréquemment, le fait de permuter le visage d’une personne avec celui d’une autre est un procédé courant. Pour Judge et Korhani (2021, p. 13-14), les préjudices privés sont subis sur le plan individuel, notamment par les victimes d’hypertrucage : atteinte à la réputation, à la vie privée, à l’autonomie et à la dignité. Selon les auteurs, les remèdes à ce type de préjudice renvoient généralement à des dispositions législatives relatives à la diffamation, à la vie privée ou à la cyberintimidation, ainsi qu’à des recours civils liés à la perte de revenus ou d’emploi. Quant à Bailey et al. (2021, p. 253), sur le plan personnel, les victimes perdent le contrôle de leur image et de leur expression sexuelle, sans possibilité de consentir ; elles sont alors exposées à la peur, à l’anxiété, à la dépression, à l’humiliation et à la perte du droit à la vie privée. S’agissant de la sécurité des victimes, il est soutenu qu’elles risquent d’être soumises à du harcèlement à la suite de la publication d’hypertrucages à caractère sexuel.
Pour compléter ce survol théorique, nous mobilisons un corpus de contenus collectés en ligne afin d’analyser les procédés de deepfakes et d’hypertrucages ainsi que leurs usages d’intimidation (voir la note éthique et juridique ci-dessous).
Note éthique et juridique. Afin d’éviter toute revictimisation et toute rediffusion de contenus potentiellement illicites, les exemples de deepfakes consultés ne sont pas reproduits dans cet article. L’analyse repose sur (i) une description des procédés (superposition, synchronisation labiale, artefacts visuels/sonores), (ii) des vignettes anonymisées (recadrage des artefacts, floutage des éléments identifiants) lorsque cela est strictement nécessaire à la démonstration, et (iii) des références à des sources secondaires.
Pour structurer l’analyse, nous distinguons quatre régimes d’intimidation — pornographique, politique, criminel et humoristique — qui mobilisent des procédés techniques en partie communs, mais se différencient par leurs finalités discursives, leurs effets de réception et les formes de préjudice qu’ils produisent.
-
L'intimidation à connotation pornographique : Les deepfakes à caractère sexuel reposent fréquemment sur des chaînes de traitement combinant (i) l’extraction de traits faciaux à partir d’images disponibles en ligne, (ii) la génération d’images ou de vidéos de substitution, puis (iii) l’assemblage (compositing) visant à naturaliser le montage. L’enjeu n’est pas seulement technique : il est social et éthique, car la victime perd le contrôle de son image et se voit exposée à des dommages réputationnels, psychologiques et relationnels. Pour ces raisons, les exemples consultés ne sont pas reproduits : l’analyse porte sur les mécanismes et les indices de manipulation (artefacts de contours, incohérences d’éclairage, instabilités de texture, etc.).
-
L’intimidation à connotation politique : Les mêmes techniques de génération et d’édition multimodales sont mobilisées dans des contenus destinés à des acteurs politiques. Ici, la finalité est double: décrédibiliser une personne publique et altérer la confiance du public dans la parole politique, en fabriquant des séquences où la voix, les propos et les expressions faciales sont recomposés pour produire un effet d’authenticité. Les procédés de synchronisation labiale et de clonage vocal renforcent l’illusion référentielle, en alignant les mouvements des lèvres, la prosodie et les expressions faciales sur un discours qui n’a jamais été tenu.
-
L’intimidation à connotation criminelle : L’association d’une personnalité publique à l’imaginaire criminel constitue un puissant levier de disqualification symbolique. En rejouant des scènes d’arrestation, de violence ou d’enfermement, les montages cherchent à provoquer un choc perceptif, tout en instaurant une représentation dégradée de l’individu visé. L’IA facilite ce type de scénarisation en permettant la substitution de visage, la recomposition de corps et l’intégration dans des décors à forte charge émotionnelle, de sorte que la fiction visuelle se présente comme un “fait” plausible. Là encore, l’analyse gagne à distinguer l’effet rhétorique (renversement d’autorité, mise en accusation) des procédés visuels (incohérences d’ombres, disproportions, contours instables).
-
L’intimidation à connotation humoristique : L’humour constitue un mode de circulation privilégié, car il abaisse le seuil critique de la réception et favorise la viralité. Les contenus humoristiques générés ou modifiés par l’IA peuvent ainsi produire une intimidation “douce”, socialement acceptable en apparence, mais reposant sur des mécanismes de rabaissement (infantilisation, caricature, substitution de rôles, dégradation de statut). L’efficacité de ces montages tient à la dissonance entre l’identité attendue et l’identité fabriquée, dissonance qui suscite le rire tout en instaurant une lecture dépréciative de la personne visée.
Conclusion
Les technologies de l’information et de la communication, appuyées par les opportunités qu’offre aujourd’hui l’intelligence artificielle, sont devenues indispensables pour garantir une communication stable et enrichissante dans un monde désormais sans frontières. Elles peuvent contribuer à la construction d’une société informée et respectueuse de ses traditions et coutumes, de ses règles sociales, des principes du vivre-ensemble et des conditions favorisant son établissement. Cependant, lorsque ces principes sont dépassés, elles peuvent donner lieu à des contenus diffamatoires et nuire à des personnes ordinaires ou de notoriété publique. De nos jours, l’intimidation, en tant que forme de violence, ne cesse de marquer les contenus médiatiques et discursifs ; elle touche tous les genres et tous les sexes et concerne toutes les classes sociales et catégories socioprofessionnelles. En mêlant spontanéité et créativité, les auteurs de ce type de contenus expriment, de manière directe ou indirecte, la relation à soi, à autrui et au monde qui les régit, dans un cadre de règles et de lois qu’il ne faut pas transgresser. Les supports analysés dans cette recherche ont ainsi cherché à montrer que l’IA aide certains usagers des technologies et d’Internet à produire — même sous couvert d’art — des contenus dont il faut se méfier et qu’il convient de traiter avec prudence. Au-delà de faire passer des messages ou des idées et de contribuer à la construction de représentations culturelles et sociodiscursives, ces supports « vendent » parfois la violence et en font la promotion. La violence verbale et non verbale, notamment l’iconique, y constitue un danger pour le vivre-ensemble et le rapport à autrui.
Ces dangers croissants liés à la violence virtuelle — impliquant l’intimidation et l’humiliation — posent des défis éthiques et sociaux majeurs à la société contemporaine. Cette réflexion, dont l’importance est visible à plusieurs niveaux, en particulier en sciences humaines et sociales, gagnerait en portée si elle pouvait inciter les pouvoirs publics à agir et à réfléchir à la mise en œuvre de stratégies de prévention et de régulation adaptées pour contrer ces abus. La sensibilisation à l’usage responsable des technologies numériques et aux répercussions sociales et éducatives de la cyberviolence pourrait jouer un rôle clé dans la protection des individus face à ces nouvelles formes d’agression.
