Microsoft kalder Copilot 'underholdning'. Reklamen siger noget andet.
Dybt begravet i Microsofts vilkår for Copilot ligger en sætning, som marketingafdelingen næppe har læst højt på et møde: "Copilot is for entertainment purposes only."
Det er ikke en misforståelse. Det er den præcise formulering, der står i Microsofts egne Copilot-vilkår, under en sektion med overskriften "IMPORTANT DISCLOSURES & WARNINGS" Microsoft. Vilkårene fortsætter: Copilot kan begå fejl, den virker måske ikke som tiltænkt, og du bør ikke stole på den til vigtige beslutninger.
Det er en advarsel, de fleste virksomheder ville finde passende på bagsiden af et horoskopblad.
Kæmpe kløft mellem salgsargument og vilkår
Problemet er ikke selve ansvarsfraskrivelsen. Det er kontrasten. Mens Microsofts juridiske afdeling klassificerede Copilot som underholdning, har CEOs Satya Nadella rost produktets præcision og positioneret det som et uundværligt AI-arbejdsredskab. The Next Web Og Microsoft har investeret milliarder i at bygge Copilot ind i hele sit produktunivers — Windows 11, Word, Excel, Teams.
OpenAI, Anthropic, xAI og Meta skriver ikke "entertainment purposes" i deres brugervilkår, selvom de alle tager forbehold for fejl og hallucination. AOL Microsoft skiller sig altså ud — ikke med mere ærlighed, men med mere juridisk overforsigtighed.
Hvad er forklaringen?
En Microsoft-talsperson forklarer nu, at formuleringen er "legacy language" fra dengang Copilot stadig var en del af Bing-søgemaskinen. Sproget afspejler ikke længere, hvordan produktet bruges i dag, og vil blive opdateret. DNYUZ
Det er sandsynligvis sandheden. Men det er også præcist det, der er problemet: Et produkt, som Microsoft sælger til virksomheder for millioner, har siden oktober 2025 haft vilkår, ingen tilsyneladende har tjekket op på. Juridisk afdeling og produktteam har levet i helt separate virkeligheder.
Det her handler om tillid — ikke jura
Tal fra begyndelsen af 2026 viser, at kun 3,3 % af de Microsoft 365-brugere, der har adgang til Copilot Chat, rent faktisk betaler for det. The Next Web Og i undersøgelser af brugere, der er stoppet med at bruge Copilot, angiver næsten halvdelen manglende tillid til svarene som den primære årsag.
Man kan ikke markedsføre et produkt som din mest pålidelige kollega og samtidig skrive i det med småt, at du bruger det på eget ansvar til underholdningsformål. Ikke fordi det er ulovligt. Men fordi det er inkonsistent — og inkonsistens eroderer tillid.
Det er heller ikke et argument mod at bruge AI i arbejdet. Det er et argument for at bruge det med åbne øjne. Forstå hvad du har med at gøre, brug det bevidst, og verificér det, der betyder noget.
Det er faktisk præcis det, vi underviser i.
Kilder: