Cyberintimidation et humiliation à l’ère de l’intelligence artificielle : reconfigurations de la violence numérique

التنمّر الإلكتروني والإذلال في عصر الذكاء الاصطناعي: إعادة تشكّل العنف الرقمي

Cyberbullying and Humiliation in the Age of Artificial Intelligence: Reconfigurations of Digital Violence

Fadoua Hachimi - Alaoui

Fadoua Hachimi - Alaoui, « Cyberintimidation et humiliation à l’ère de l’intelligence artificielle : reconfigurations de la violence numérique », Aleph [], Vol 12 (5) | 2025, 15 February 2026, 17 February 2026. URL : https://aleph.edinum.org/15874

Cet article explore les nouvelles formes d’intimidation et d’humiliation engendrées par l’intelligence artificielle (IA) à l’ère numérique. En analysant des cas concrets de deepfakes, nous montrons comment ces outils technologiques amplifient la cyberviolence en la rendant plus ciblée, plus sophistiquée et plus destructrice. L’étude révèle que l’IA, bien qu’offrant des opportunités majeures, peut aussi faciliter la manipulation des émotions, l’usurpation d’identité et la diffusion de contenus diffamatoires, posant ainsi des défis éthiques et sociaux inédits.

تستكشف هذه المقالة الأشكالَ الجديدةَ من الترهيب والإذلال التي أفرزها الذكاء الاصطناعي (AI) في العصر الرقمي. ومن خلال تحليل حالاتٍ ملموسةٍ من «التزييف العميق» (Deepfakes)، نُبيّن كيف تُضخّم هذه الأدوات التكنولوجية العنفَ السيبراني، إذ تجعله أكثر استهدافًا، وأكثر تعقيدًا، وأكثر تدميرًا. وتكشف الدراسة أنّ الذكاء الاصطناعي، رغم ما يتيحه من فرصٍ كبرى، قد يسهّل أيضًا التلاعبَ بالعواطف، وانتحالَ الهوية، ونشرَ محتوياتٍ تشهيرية، بما يطرح تحدياتٍ أخلاقيةً واجتماعيةً غير مسبوقة.

This article examines the emerging forms of intimidation and humiliation fueled by artificial intelligence (AI) in the digital age. By analysing concrete cases of deepfakes, we demonstrate how these technological tools amplify cyberviolence, making it more targeted, sophisticated, and destructive. The study reveals that while AI offers significant opportunities, it also facilitates emotional manipulation, identity theft, and the spread of defamatory content, raising unprecedented ethical and social challenges.

Introduction

L’intimidation et l’humiliation sont des pratiques psychosociales qui ont toujours marqué les échanges discursifs humains et accompagné les rapports de sexe et de genre en société, en impliquant l’insécurité linguistique ainsi que la violence verbale et non verbale (Lachkar, 2005 ; Calvet, 1999 ; Haugen, 1962 ; Auger et al., 2003, 2008, etc.), et une mise en scène de plusieurs formes de stéréotypage dans l’espace public et médiatique (Lachkar, 2007, 2013, 2014, 2019 ; Boyer, 2007 ; Lochard et Boyer, 1998, etc.). Cependant, à l’ère du numérique et de l’intelligence artificielle (IA), ces comportements prennent de nouvelles formes et posent des défis supplémentaires. Les interactions sociales ont migré vers des espaces virtuels où les normes de communication sont souvent floues, voire transgressées. Les réseaux sociaux, les forums et les plateformes de messagerie sont devenus des lieux d’expression, mais aussi des terrains propices à des formes de violence symbolique, telles que l’humiliation et l’intimidation. Ces comportements, lorsqu’ils s’inscrivent dans une logique de répétition et de mise en scène, relèvent de la cyberviolence. Ils affectent profondément les individus, en particulier les femmes, dont l’identité socioculturelle et émotionnelle se construit en continu. Ce travail se propose d’analyser les impacts sociolangagiers et psychosociolinguistiques de ces violences numériques, en mettant en lumière les mécanismes discursifs, iconiques, émotionnels, comportementaux et sociaux qui en découlent. Il expliquera comment l’IA a complexifié ce phénomène, en ouvrant des voies insidieuses et sophistiquées pour perpétrer ces actes répréhensibles. Ces nouvelles formes d’intimidation sont souvent plus difficiles à détecter et, par conséquent, plus destructrices. Les deepfakes, les chatbots malveillants et les algorithmes de recommandation peuvent amplifier l’intimidation, la rendant plus ciblée, persistante et dévastatrice. Selon Farthofer (2023, p. 308), les algorithmes d’IA peuvent discriminer systématiquement des individus en raison de leur appartenance à un groupe, ce qui peut avoir de « graves conséquences sur la vie d’un individu, dès lors qu’il est constamment confronté aux mesures prises contre lui ».

Il est vrai que l’intelligence artificielle offre des opportunités extraordinaires dans différents domaines, mais elle peut aussi révéler une face plus sombre lorsqu’elle est utilisée pour manipuler, harceler et intimider. Les deepfakes, par exemple, permettent de créer des vidéos ou des images hyperréalistes mais entièrement fausses, souvent utilisées pour diffamer ou humilier des individus ou des groupes. Les chatbots malveillants, quant à eux, peuvent inonder les réseaux sociaux de messages haineux ou menaçants, en ciblant systématiquement et automatiquement des personnes. Ces formes d’intimidation ont des répercussions considérables sur la vie des victimes, en affectant leur santé mentale, leur dignité, leur réputation et leur sécurité. Sous la forme d’insultes directes, d’appels téléphoniques ou de lettres anonymes menaçantes, l’intimidation n’est pas un phénomène nouveau : elle a bel et bien existé et a marqué la communication interindividuelle et collective dans plusieurs cultures avant l’ère numérique. Internet a démultiplié son impact, avec le développement de la technicité, la multiplication de la production de contenus et leur diffusion massive, sans frontières, notamment des contenus haineux, injurieux, stéréotypants et stéréotypiques, parce que les acteurs-usagers profitent de la possibilité de s’exprimer de manière anonyme sur les plateformes numériques.

Avec le développement des outils d’intelligence artificielle, l’intimidation est entrée dans une nouvelle ère. Les algorithmes de prédiction comportementale peuvent analyser les données personnelles des utilisateurs et fournir aux usagers-agresseurs des informations leur permettant d’adapter leurs contenus de manière plus précise et plus destructrice. Cette personnalisation rend l’intimidation plus efficace et plus douloureuse pour les personnes victimes. Ces algorithmes sont capables de détecter les fragilités émotionnelles d’un usager et de cibler les messages en conséquence. Autrement dit, malgré toutes les opportunités qu’offre l’intelligence artificielle, son développement soulève des interrogations d’ordre éthique, social, voire anthropologique. L’usage de l’intelligence artificielle engendre des pratiques périlleuses, telles que la diffusion malsaine d’informations et l’usurpation des données d’autrui pour le rabaisser et l’humilier. Cette cyberviolence, susceptible de se transformer en usurpation d’identité et en intimidation, repose sur la falsification de photos et de vidéos en vue d’agresser autrui. Il en résulte que, plus l’IA progresse et s’améliore, plus les tentatives d’escroquerie, de menace ou de chantage augmentent.

On l’aura compris, cette recherche se propose aussi d’étudier l’usage subjectivé des outils d’IA visant des individus ou des groupes précis, dans le but de leur faire subir différents types de cyberviolence, notamment la violence verbale, non verbale, sonore et visuelle, dans une perspective d’intimidation et d’humiliation. Nous partons de l’hypothèse générale selon laquelle l’investissement des outils offerts par le numérique dans les différentes formes de communication favoriserait une augmentation des formes sociolangagières injurieuses, en raison de la capacité de ces technologies à manipuler et diffuser des contenus plus ou moins crédibles, ou dont la véracité est rendue problématique au regard des conditions de production. Par conséquent, l’étude définira l’intimidation et l’humiliation en ligne à l’ère du numérique et de l’intelligence artificielle, puis présentera les enjeux éthiques liés à l’IA. Cela se fera à partir d’un traitement sémio-psycho-socio-discursif et pragmatique de quelques supports iconiques et audiovisuels (images, clichés, vidéos, commentaires) issus du paysage médiatique et numérique marocain, en analysant des processus d’intimidation, de dénigrement, de mépris et d’humiliation visant des personnalités célèbres et de notoriété publique. Cette recherche s’inscrit, en s’inspirant de la psychologie de l’humiliation (Lindner ; Balaya), dans le cadre des théories de l’analyse de contenu, de l’analyse du discours, ainsi que des théories de la violence symbolique (Bourdieu, 1980, 2001), de la sociologie du langage (Gumperz, 1989) et de la sociologie des interactions numériques (Boyd, 2014 ; Pasquier, 1999).

1. Violences en ligne et IA : comprendre, définir, agir

1.1.Mais qu’est-ce que l’intimidation et l’humiliation en ligne ?

Les pratiques discursives et les interactions langagières informent sur les pratiques linguistiques, culturelles, sociales et idéologiques des groupes et des individus ; c’est dans ces interactions que les usagers produisent leurs discours, donnent du sens à leurs constituants et aux actions qui en découlent, en impliquant non seulement des prises de pouvoir, mais aussi la mise en place de stratégies discursives ainsi que des positionnements sociaux et idéologiques (Gumperz, 1989 ; Eckert, 2019 ; Moïse, 2003 ; Charaudeau, 2007 ; Lachkar, 2007, 2010, 2011, 2012, etc.). C’est le cas des productions impliquant de la violence dans l’espace numérique.

De nos jours, toute activité de violence en ligne, par le biais d’Internet et des outils d’intelligence artificielle, est qualifiée de cyberviolence. Les manifestations les plus fréquentes de la cyberintimidation consistent à harceler, à humilier ou à tromper quelqu’un. Quel que soit son sexe ou son âge, nul n’en est épargné : tout individu peut être confronté à ce type de comportements psychosociaux. L’intimidation d’autrui — la victime —, par l’intermédiaire de contenus blessants, agressifs, menaçants, insultants ou moqueurs, exercée par une personne ou un groupe à l’encontre d’une autre via des moyens numériques, est banalisée de nos jours faute d’une éducation effective aux médias et aux règles qui les régissent ; cette pression s’exerce aussi à travers la diffusion de rumeurs ou d’informations privées et embarrassantes, dans le but de nuire à la réputation de la cible.

La cyberintimidation constitue, par conséquent, un phénomène largement étudié par les sciences humaines et sociales. Les résultats et concepts issus des travaux en psychologie, notamment ceux de Dan Olweus (1999) sur l’intimidation en milieu scolaire, ont été étendus à la cyberintimidation. Celle-ci se présente comme une forme de harcèlement qui utilise les technologies numériques pour humilier, intimider ou insulter une personne, où l’anonymat et la distance physique amplifient les comportements agressifs et peuvent causer des dommages psychologiques durables. Selon Sheri Bauman (2015), la cyberintimidation a des conséquences psychologiques sur la cible, notamment l’anxiété, la dépression et l’isolement social ; les victimes peuvent se sentir impuissantes face à la viralité des contenus numériques et à la difficulté à les supprimer. Hinduja et Patchin (2007), ainsi que Carvalho, Smith, Mahdavi, Russell et Tippett (2008), définissent la cyberintimidation comme « l’utilisation agressive des technologies de l’information et de la communication pour blesser une personne plus faible, de façon répétée et systématique sur une longue période ». Cependant, Smith et al. (2008) assimilent le cyberharcèlement à « un acte agressif, intentionnel, perpétré par un individu ou un groupe d’individus, au moyen de formes de communication électroniques, de façon répétée, à l’encontre d’une victime qui ne peut facilement se défendre seule ». Bill Belsey (2003) suggère une autre définition qui fait abstraction du déséquilibre de pouvoir : « Le cyberharcèlement implique l’utilisation des nouvelles technologies de l’information et de la communication dans le cadre d’une attitude hostile délibérée et répétée de la part d’un individu ou d’un groupe, avec l’intention de faire (du) mal. ».

L’intimidation et l’humiliation en ligne, souvent liées au cyberharcèlement, sont des phénomènes qui ne cessent de s’amplifier par l’emploi des nouvelles technologies de l’information et de la communication. Avec la multiplicité des plateformes numériques, les agresseurs peuvent désormais utiliser des outils d’IA, tels que les deepfakes ou les chatbots, pour créer des contenus diffamatoires ou humiliants de manière automatisée et plus crédible.

1.2.Cyberintimidation et intelligence artificielle

Malgré ses avantages, l’intelligence artificielle peut être utilisée à des fins malveillantes pour faciliter la cyberintimidation. Les outils d’IA peuvent servir à la génération automatique de messages blessants, de commentaires haineux ou de campagnes de dénigrement et de désinformation visant à discréditer une personne ou un groupe sur les réseaux sociaux. L’IA permet aussi de créer des deepfakes (vidéos, enregistrements audio et images truqués), avec la même intention de nuire à autrui et de le discréditer.

Par ailleurs, l’intelligence artificielle facilite l’anonymat et, sachant que les contenus humiliants ou intimidants peuvent être diffusés à grande échelle et durablement, certains agresseurs — se pensant invisibles — se sentent moins responsables de leurs actes et multiplient leurs propos injurieux. Ainsi, la personne victime de cyberintimidation peut entrer dans un état de stress et d’anxiété chronique. Plus encore, l’IA a amplifié les possibilités de violences de genre facilitées par la technologie auxquelles de nombreuses communautés peuvent être confrontées en ligne. Cela renforce des préjudices existants tels que la désinformation, le discours de haine, la cyberintimidation et l’usurpation d’identité.

Bref, la violence de genre facilitée par la technologie n’est pas seulement une manifestation d’intimidation et de harcèlement en ligne : il s’agit d’un acte intentionnel et malveillant visant autrui, au service d’objectifs discursifs, communicationnels, voire psychosociaux, préétablis par son ou ses auteurs.

2. IA : éthique, désinformation et violences en ligne

2.1. Enjeux éthiques liés à l’intelligence artificielle

Sur le plan éthique, des fondateurs et responsables de grandes plateformes et outils des technologies de l’information et de la communication, tels que Bill Gates, Elon Musk ou encore Stephen Hawking, ainsi que d’autres chercheurs spécialisés, mettent en garde contre les usages dangereux des TIC et insistent sur le rôle des cadres éthiques de l’intelligence artificielle. Parmi ces enjeux, la protection des données personnelles revêt une importance primordiale. L’utilisation massive de données au sein des systèmes d’IA peut compromettre la vie privée des individus si ces données ne bénéficient pas d’une sécurité et d’une protection adéquates contre les abus.

Il est vrai que l’expansion rapide d’Internet, des réseaux sociaux et de l’intelligence artificielle a créé de nouvelles opportunités, mais elle a également ouvert la porte à diverses menaces, notamment la cybercriminalité, la cyberintimidation, la diffusion de contenus illicites, la violation de la vie privée et l’exploitation abusive des données personnelles. Ainsi, Chanda (2024) perçoit l’IA comme une valeur ajoutée, tandis que Taguimdje et al. (2020) soulignent que cette valeur peut être détruite en raison des risques liés au développement et au déploiement de cette technologie. Chen et al. (2023) ont examiné l’aspect éthique de l’IA afin de rendre ce concept plus opérationnel ; d’un point de vue conceptuel, d’autres études ont tenté de définir l’intelligence artificielle responsable sous différents angles, tels que le respect de principes éthiques ou une approche technique axée sur l’intervention humaine, afin d’inciter les usagers des TIC à se conformer à des normes et à des réglementations axées sur le risque (Díaz-Rodríguez et al., 2023).

L’examen des pratiques et des comportements éthiques tout au long du cycle de vie d’un système d’IA devient une démarche cruciale, en raison des répercussions possibles sur l’humanité et l’écosystème dans son ensemble. Pour cette raison, les recherches sur la cybermenace prennent de l’importance, au vu de l’évolution des possibilités de harcèlement et d’attaques imprévues, ce qui ne peut que favoriser l’instauration d’initiatives réglementaires de protection de la vie individuelle et collective. Les cybermenaces ne passeront plus inaperçues et pourront être mieux contrôlées, ce qui renforcera la confiance dans l’utilisation des services d’IA.

2.2. L’IA face à la désinformation et à l’intimidation : cadres d’analyse

Le développement de l’apprentissage automatique, et notamment des réseaux antagonistes génératifs (GAN), est aujourd’hui indissociable de l’avènement des deepfakes et des hypertrucages, dont l’objectif est parfois d’humilier et d’intimider des personnalités célèbres ou publiques. Toutefois, les auteurs de ce type de contenus privilégient tout ce qui est contraire à une communication publique et politique saine, notamment à travers la création de contenus constituant un danger pour la vie publique, via des phénomènes d’ingérence et une perte de confiance dans les institutions et l’information politique, synonyme de désinformation.

En effet, l’utilisation de dispositifs d’IA permet de reproduire des détails intimes d’une personne en analysant ses données d’entrée telles que des photos, des vidéos ou des enregistrements sonores, afin de superposer ces éléments à un autre contenu numérique. Plus fréquemment, le fait de permuter le visage d’une personne avec celui d’une autre est un procédé courant. Pour Judge et Korhani (2021, p. 13-14), les préjudices privés sont subis sur le plan individuel, notamment par les victimes d’hypertrucage : atteinte à la réputation, à la vie privée, à l’autonomie et à la dignité. Selon les auteurs, les remèdes à ce type de préjudice renvoient généralement à des dispositions législatives relatives à la diffamation, à la vie privée ou à la cyberintimidation, ainsi qu’à des recours civils liés à la perte de revenus ou d’emploi. Quant à Bailey et al. (2021, p. 253), sur le plan personnel, les victimes perdent le contrôle de leur image et de leur expression sexuelle, sans possibilité de consentir ; elles sont alors exposées à la peur, à l’anxiété, à la dépression, à l’humiliation et à la perte du droit à la vie privée. S’agissant de la sécurité des victimes, il est soutenu qu’elles risquent d’être soumises à du harcèlement à la suite de la publication d’hypertrucages à caractère sexuel.

Pour compléter ce survol théorique, nous mobilisons un corpus de contenus collectés en ligne afin d’analyser les procédés de deepfakes et d’hypertrucages ainsi que leurs usages d’intimidation (voir la note éthique et juridique ci-dessous).

Note éthique et juridique. Afin d’éviter toute revictimisation et toute rediffusion de contenus potentiellement illicites, les exemples de deepfakes consultés ne sont pas reproduits dans cet article. L’analyse repose sur (i) une description des procédés (superposition, synchronisation labiale, artefacts visuels/sonores), (ii) des vignettes anonymisées (recadrage des artefacts, floutage des éléments identifiants) lorsque cela est strictement nécessaire à la démonstration, et (iii) des références à des sources secondaires.

Pour structurer l’analyse, nous distinguons quatre régimes d’intimidation — pornographique, politique, criminel et humoristique — qui mobilisent des procédés techniques en partie communs, mais se différencient par leurs finalités discursives, leurs effets de réception et les formes de préjudice qu’ils produisent.

  • L'intimidation à connotation pornographique : Les deepfakes à caractère sexuel reposent fréquemment sur des chaînes de traitement combinant (i) l’extraction de traits faciaux à partir d’images disponibles en ligne, (ii) la génération d’images ou de vidéos de substitution, puis (iii) l’assemblage (compositing) visant à naturaliser le montage. L’enjeu n’est pas seulement technique : il est social et éthique, car la victime perd le contrôle de son image et se voit exposée à des dommages réputationnels, psychologiques et relationnels. Pour ces raisons, les exemples consultés ne sont pas reproduits : l’analyse porte sur les mécanismes et les indices de manipulation (artefacts de contours, incohérences d’éclairage, instabilités de texture, etc.).

  • L’intimidation à connotation politique : Les mêmes techniques de génération et d’édition multimodales sont mobilisées dans des contenus destinés à des acteurs politiques. Ici, la finalité est double: décrédibiliser une personne publique et altérer la confiance du public dans la parole politique, en fabriquant des séquences où la voix, les propos et les expressions faciales sont recomposés pour produire un effet d’authenticité. Les procédés de synchronisation labiale et de clonage vocal renforcent l’illusion référentielle, en alignant les mouvements des lèvres, la prosodie et les expressions faciales sur un discours qui n’a jamais été tenu.

  • L’intimidation à connotation criminelle : L’association d’une personnalité publique à l’imaginaire criminel constitue un puissant levier de disqualification symbolique. En rejouant des scènes d’arrestation, de violence ou d’enfermement, les montages cherchent à provoquer un choc perceptif, tout en instaurant une représentation dégradée de l’individu visé. L’IA facilite ce type de scénarisation en permettant la substitution de visage, la recomposition de corps et l’intégration dans des décors à forte charge émotionnelle, de sorte que la fiction visuelle se présente comme un “fait” plausible. Là encore, l’analyse gagne à distinguer l’effet rhétorique (renversement d’autorité, mise en accusation) des procédés visuels (incohérences d’ombres, disproportions, contours instables).

  • L’intimidation à connotation humoristique : L’humour constitue un mode de circulation privilégié, car il abaisse le seuil critique de la réception et favorise la viralité. Les contenus humoristiques générés ou modifiés par l’IA peuvent ainsi produire une intimidation “douce”, socialement acceptable en apparence, mais reposant sur des mécanismes de rabaissement (infantilisation, caricature, substitution de rôles, dégradation de statut). L’efficacité de ces montages tient à la dissonance entre l’identité attendue et l’identité fabriquée, dissonance qui suscite le rire tout en instaurant une lecture dépréciative de la personne visée.

Conclusion

Les technologies de l’information et de la communication, appuyées par les opportunités qu’offre aujourd’hui l’intelligence artificielle, sont devenues indispensables pour garantir une communication stable et enrichissante dans un monde désormais sans frontières. Elles peuvent contribuer à la construction d’une société informée et respectueuse de ses traditions et coutumes, de ses règles sociales, des principes du vivre-ensemble et des conditions favorisant son établissement. Cependant, lorsque ces principes sont dépassés, elles peuvent donner lieu à des contenus diffamatoires et nuire à des personnes ordinaires ou de notoriété publique. De nos jours, l’intimidation, en tant que forme de violence, ne cesse de marquer les contenus médiatiques et discursifs ; elle touche tous les genres et tous les sexes et concerne toutes les classes sociales et catégories socioprofessionnelles. En mêlant spontanéité et créativité, les auteurs de ce type de contenus expriment, de manière directe ou indirecte, la relation à soi, à autrui et au monde qui les régit, dans un cadre de règles et de lois qu’il ne faut pas transgresser. Les supports analysés dans cette recherche ont ainsi cherché à montrer que l’IA aide certains usagers des technologies et d’Internet à produire — même sous couvert d’art — des contenus dont il faut se méfier et qu’il convient de traiter avec prudence. Au-delà de faire passer des messages ou des idées et de contribuer à la construction de représentations culturelles et sociodiscursives, ces supports « vendent » parfois la violence et en font la promotion. La violence verbale et non verbale, notamment l’iconique, y constitue un danger pour le vivre-ensemble et le rapport à autrui.

Ces dangers croissants liés à la violence virtuelle — impliquant l’intimidation et l’humiliation — posent des défis éthiques et sociaux majeurs à la société contemporaine. Cette réflexion, dont l’importance est visible à plusieurs niveaux, en particulier en sciences humaines et sociales, gagnerait en portée si elle pouvait inciter les pouvoirs publics à agir et à réfléchir à la mise en œuvre de stratégies de prévention et de régulation adaptées pour contrer ces abus. La sensibilisation à l’usage responsable des technologies numériques et aux répercussions sociales et éducatives de la cyberviolence pourrait jouer un rôle clé dans la protection des individus face à ces nouvelles formes d’agression.

Bibliographie (APA 7) — Noms/prénoms : majuscule initiale uniquement

Bailey, J., Burkell, J., Dunn, S., Gosse, C., & Steeves, V. (2021). AI and technology-facilitated violence and abuse. In F. Martin-Bariteau & T. Scassa (Eds.), Artificial intelligence and the law in Canada. LexisNexis Canada.

Bauman, S., & Newman, M. L. (2013). Testing assumptions about cyberbullying: Perceived distress associated with acts of conventional and cyber bullying. American Psychological Association.

Bauman, S. (2015). Cyberbullying: What counselors need to know. [Éditeur non indiqué].

Belsey, B. (2003). La première définition du cyberharcèlement. Cyberbullying.ca. http://www.cyberbullying.ca

Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.

Bourdieu, P. (2001). Le sens pratique. Minuit.

Bourdieu, P. (2001). Sur le pouvoir symbolique. In Langage et pouvoir symbolique. Seuil.

Boyd, D. (2014). It’s complicated: The social lives of networked teens. Yale University Press.

Chanda, A. K. (2024). Human judgment in artificial intelligence for business decision-making: An empirical study. International Journal of Innovation Management, 28(1–2).

Charaudeau, P. (2007). Les stéréotypes, c’est bien, les imaginaires, c’est mieux. In H. Boyer (Ed.), Stéréotypage, stéréotypes : fonctionnements ordinaires et mises en scène (pp. 49–63). L’Harmattan.

Chesney, R., & Citron, D. K. (2020). Deep fakes: A looming crisis for national security, democracy and privacy? In W. L. Bennett & S. Livingston (Eds.), The disinformation age: Politics, technology, and disruptive communication (pp. 211–235). Cambridge University Press.

Citron, D. K. (2018). Deep fakes: A looming challenge for privacy, democracy, and national security. University of California Press.

Eckert, P. (2019). The limits of meaning: Social indexicality, variation, and the cline of interiority. Language, 95(4), 751–776.

Floridi, L., & Cowls, J. (2020). A unified framework of five principles for AI in society. In M. D. Dubber et al. (Eds.), AI ethics and governance (pp. 15–32). Oxford University Press.

Gates, B., Hawking, S., & Musk, E. (2015, January 29). L’intelligence artificielle. Le Monde.

Gumperz, J.-J. (1989). Engager la conversation : Introduction à la sociolinguistique interactionnelle. Minuit.

Hawking, S. (1994). Black holes and baby universes. Bantam Books.

Hawking, S. (1998). A brief history of time. Bantam Books.

Hinduja, S., & Patchin, J. W. (2007). Offline consequences of online victimization: School violence and delinquency. Journal of School Violence, 6(3), 89–112.

Judge, E. F., & Korhani, A. M. (2021). Deepfakes, counterfeits, and personality. Alberta Law Review, 59.

Lachkar, A. (2007). Stéréotypes de pensée et stéréotypes de langue : Réflexion sur le contenu lexical d’un discours « très » spécifique. In H. Boyer (Ed.), Stéréotypage, stéréotypes : fonctionnements ordinaires et mises en scène (pp. 133–141). L’Harmattan.

Lachkar, A. (2010). Discours (du) politique, médias et représentations : Quelle(s) stratégie(s) pour quel(s) effet(s). In M. Abecassis & G. Ledegen (Eds.), Les voix des Français à travers l’histoire, l’école et la presse (pp. 269–281). Peter Lang.

Lachkar, A. (2011). Stéréotypie lexicale et effet de l’oralité : Le pouvoir des mots à exprimer l’identité. In D. Bajomée & A. Mabrour (Eds.), Autour de l’oralité et de l’écriture (pp. 279–291). Publications de l’Université Chouaïb Doukkali.

Lachkar, A. (2012). Médias et discours identitaires menaçants : Mots, image, argumentation et reconstruction de sens. In A. Lachkar (Ed.), Langues et médias en Méditerranée (pp. 123–133). L’Harmattan.

Marwick, A. E., & Boyd, D. (2014). Networked privacy: How teenagers negotiate context in social media. New Media & Society, 16(7), 1051–1067.

Moreno, J. L. (1961). The role concept, a bridge between psychiatry and sociology. American Journal of Psychiatry, 118.

Moïse, C. (2002). Pratiques langagières des banlieues : Où sont les femmes ? VEI Enjeux, (128).

Olweus, D. (1999). Violences entre élèves, harcèlements et brutalités : Les faits, les solutions. [Éditeur non indiqué].

Olweus, D. (2013). School bullying: Development and some important challenges. Annual Review of Clinical Psychology.

Pasquier, D. (1999). La culture des sentiments : L’expérience télévisuelle des adolescents. Éditions de la Maison des Sciences de l’Homme.

Sainato, M. (2015, August 19). Stephen Hawking, Elon Musk, and Bill Gates warn about artificial intelligence. Observer.

Smith, P. K., Mahdavi, J., Carvalho, M., Fisher, S., Russell, S., & Tippett, N. (2008). Cyberbullying: Its nature and impact in secondary school pupils. Journal of Child Psychology and Psychiatry, 49(4), 376–385.

UNESCO. (2021). Recommendation on the ethics of artificial intelligence. Retrieved June 15, 2024, from https://unesdoc.unesco.org/ark:/48223/pf0000379922

Vaccari, C., & Chadwick, A. (2020). Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media + Society, 6(1), 1–13.

Wachs, S., Wright, M. F., & Vazsonyi, A. T. (2019). Understanding the overlap between cyberbullying and cyberhate perpetration: Moderating effects of toxic online disinhibition. Criminal Behaviour and Mental Health, 29(3), 179–188.

Wamba-Taguimdje, S.-L., Fosso Wamba, S., Kala Kamdjoug, J. R., & Tchatchouang Wanko, C. E. (2020). Influence of artificial intelligence (AI) on firm performance: The business value of AI-based transformation projects. Business Process Management Journal, 26(7), 1893–1924.

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.

Fadoua Hachimi - Alaoui

Université Cadi Ayyad -Marrakech

© Tous droits réservés à l'auteur de l'article