“AI handler ikke om at erstatte mennesker, det handler om at forstærke dem.”
“Succes kommer ikke fra talent, men fra disciplin.”
“Lederskab er ikke en titel, det er en handling.”
Den offentlige debat og fora som LinkedIn flyder i stigende grad over med denne type sproglige konstruktioner. Alt sættes op imod noget andet. X not Y. X rather than Y. Alt skal forklares gennem kontrast og modsætning.
Det er ikke tilfældigt. Det er sådan store sprogmodeller tænker. Din nye ven ChatGPT, Claude, Gemini.
Hvorfor?
Tre årsager:
LLMs absorberer overtalende sprogbrug. Forskning viser at LLMs producerer argumenter med højere kognitiv kompleksitet og bruger mere moralsk-emotionelt sprog end mennesker. De er blevet ekstremt effektive til personaliseret overtalelse fordi de er trænet på enorme mængder persuasive tekster: marketing, debatter, argumenterende artikler.
Kontrastiv læring er en træningsmetode. Research viser at når man giver LLMs opgaven at generere både korrekte og forkerte svar samtidig (“contrastive prompting”), forbedres deres evne til kompleks ræsonnering markant. Systemet lærer bedre ved at sætte ting op imod hinanden.
Sproglige bias fra træningsdata. Forskning i LLM-bias dokumenterer at retoriske konstruktioner og overtalende sprogbrug skaber systematiske bias i modellerne. De lærer mønstre hvor kontrast signalerer klarhed og autoritet.
Konsekvensen?
LLMs har lært at tænke gennem opposition. Ikke relationalitet.
De kan fremragende forklare hvordan X adskiller sig fra Y. Men de kæmper med at beskrive hvordan ting eksisterer side om side. Overlapper. Komplementerer hinanden uden konflikt. Sameksisterer i nuanceret kompleksitet.
Det afslører noget dybere.
Disse systemer spejler vores kulturs tendens til splittet, enten-eller-tænkning. De har absorberet logikken i vores splittende diskurser: marketing der sælger ved at skabe modstillinger, politisk debat der lever af polarisering, nyhedsartikler der rammer skarpest ved at sætte perspektiver op mod hinanden.
Men de har ikke absorberet vores forbindende diskurser. De samtaler hvor ting hænger sammen uden at modsige. Hvor kompleksitet ikke kræver kontrast. Hvor nuancer ikke skal pakkes ind i binære valg.
Dette er et fundamentalt bias i hvordan modellerne fungerer lige nu. Man kan minimere det ved at være bevidst om det. Prompt anderledes. Spørg efter nuancer fremfor kontraster. Men tendensen er der. Konstant i spil.
Når alt skal være X fremfor Y, mister vi blikket for de tusind måder X og Y kan danse sammen på.
Kilder:
Alhindi, T., Pfeiffer, J., & Muresan, S. (2024). “Large Language Models are Contrastive Reasoners.” arXiv preprint arXiv:2403.08211. https://arxiv.org/html/2403.08211v2
Carrasco-Farré, C. (2024). “Large Language Models are as persuasive as humans, but how? About the cognitive effort and moral-emotional language of LLM arguments.” arXiv preprint arXiv:2404.09329. https://arxiv.org/abs/2404.09329
Matz, S.C., Teeny, J.D., Vaid, S.S., Peters, H., Harari, G.M., & Cerf, M. (2024). “The potential of generative AI for personalized persuasion at scale.” Scientific Reports, 14(1), 4692. https://www.nature.com/articles/s41598-024-53755-0
Zhang, Y., Liu, X., Xu, Y., et al. (2024). “Bias in Large Language Models: Origin, Evaluation, and Mitigation.” arXiv preprint arXiv:2411.10915. https://arxiv.org/html/2411.10915v1
Cover illustration: “The Ancient of Days” (1794)