Bosses betting on AI to slash headcount and boost margins are discovering an uncomfortable truth: the strategy isn't working.
New research from Gartner lays out the problem in stark terms. The analyst firm surveyed 350 global businesses - all with annual revenues above $1 billion, all piloting or deploying intelligent automation - and found that around 80 percent had cut staff as a result.
The returns? Elusive. Companies that reduced their workforces were just as likely to see negative outcomes or marginal gains as they were to generate any meaningful return on investment (ROI).
John Oliver just did what he did best: demolished a harmful industry piece by piece.
On the latest episode of his HBO show “Last Week Tonight,” Oliver tore into AI chatbots, those oh-so helpful tools that can sure save us “significant time writing emails,” he opened, with the small cost of “everything else on Earth.”
“The more you look at chatbots, the more you realize that they were rushed to market with very little consideration for the consequences,” he warned, on a more serious note.
“The proliferation of AI-generated and AI-assisted text on the internet is feared to contribute to a degradation in semantic and stylistic diversity, factual accuracy, and other negative developments,” the researchers write in the paper. “We find that by mid-2025, roughly 35% of newly published websites were classified as AI-generated or AI-assisted, up from zero before ChatGPT's launch in late 2022.”
„Es wird befürchtet, dass die zunehmende Verbreitung von KI-generierten und KI-unterstützten Texten im Internet zu einer Verringerung der semantischen und stilistischen Vielfalt, der sachlichen Genauigkeit sowie zu weiteren negativen Entwicklungen beitragen könnte“, schreiben die Forscher in ihrer Studie. „Wir haben festgestellt, dass bis Mitte 2025 etwa 35 % der neu veröffentlichten Websites als KI-generiert oder KI-unterstützt eingestuft wurden, während dieser Anteil vor der Einführung von ChatGPT Ende 2022 noch bei null lag.“
Nur weil Modelle wie Claude Mythos mit enormer Lautstärke auf den Markt kommen, krempeln diese die IT-Landschaft nicht von heute auf morgen um, erklärt der IT-Sicherheitsexperte Manuel 'HonkHase' Atug
…
Sicherheit ist ein Prozess und kein Zustand. Wer also weiß, wie er präventiv und reaktiv agieren muss, weil alle Prozesse existieren und die Abläufe geübt werden, der weiß auch, wie er einen Angriff übersteht, ohne Panik haben zu müssen.
Diese Person hatte keine Ahnung, was sie gebaut hatte oder welche Konsequenzen das haben könnte. Die Daten lagen nicht nur offen da: sie wurden auf einem US-Server ohne Auftragsverarbeitungsvertrag unverschlüsselt gespeichert, Sprachaufnahmen wurden an grosse US-amerikanische AI-Unternehmen gesendet, und ich wurde nie darüber informiert. So geht man nicht mit medizinischen Patientendaten um.
The Rejection of Artificially Generated Slop (RAGS)
[ERROR 406i: AI_SLOP_DETECTED]
This document specifies the standard protocol for handling and discarding low-effort, machine-generated contributions submitted to source code repositories, issue trackers, vulnerability reporting portals, and community forums, be they public open-source projects or internal corporate monoliths.
In den nächsten 13 Jahren gehen 44 Prozent der öffentlich Bediensteten in Pension. Jahrzehntelange Expertise droht verloren zu gehen, der Fachkräftemangel wächst, und gleichzeitig steigen die Anforderungen an Tempo, Qualität und Effizienz. KI ist die Schlüsseltechnologie, um staatliche Handlungsfähigkeit, Wettbewerbsfähigkeit und Innovation langfristig sicherzustellen.
Public AI bündelt alle KI-Vorhaben der Bundesverwaltung unter einer gemeinsamen Dachmarke. Die technische Basis von Public AI ist eine gemeinsame souveräne KI-Infrastruktur des Bundesrechenzentrums, die ressortübergreifend nutzbar ist und als Shared Service weiterentwickelt wird. Ziel ist ein koordinierter Ansatz statt vieler paralleler Einzellösungen.
Notwendig geworden ist die Maßnahme auch, da in den nächsten 13 Jahren 44 Prozent der öffentlich Bediensteten in Pension gehen.
Die Regierung will diesen Abgang und den damit drohenden Fachkräftemangel durch die Verwendung von KI abfedern. Geeinigt hat man sich bei einem „KI-Konklave“ auf fünf konkrete Anwendungen unter dem Namen „Public AI“.
Allen Bundesbediensteten soll etwa künftig das KI-Tool GovGPT zur Verfügung stehen. Mitarbeiterinnen und Mitarbeiter können damit Texte erstellen, Dokumente zusammenfassen und eigene Wissensdatenbanken aufbauen.
Auch der elektronische Akt wird mit KI-Funktionen ausgestattet. Damit können Bedienstete künftig Fragen zu ganzen Aktenbestände stellen und erhalten sofort eine strukturierte Zusammenfassung.
Das Tool KAPA unterstützt die Ministerien bei der Beantwortung parlamentarischer Anfragen, deren Zahl in den vergangenen Jahren gestiegen ist.
In the past three, we’ve gone from casual users freaking out about their first encounters with ChatGPT to the Pentagon staging industrial-strategy-level fights over whether fully autonomous A.I.s can be deployed in war zones without any human oversight. In the next three? Those exponential curves may not bring us to a new godhead, but the genie doesn’t exactly look like it’s going back in the bottle, either. And those hoping to play a more active role in shaping the future that it’s conjuring will probably have to do more than stop ground from being broken for a few new data centers.
The command line is hot again. For some people, command lines were never not hot, of course, but it’s becoming more common now in the age of AI. Google launched a Gemini command-line tool last year, and now it has a new AI-centric command-line option for cloud products. The new Google Workspace CLI bundles the company’s existing cloud APIs into a package that makes it easy to integrate with a variety of AI tools, including OpenClaw. How do you know this setup won’t blow up and delete all your data? That’s the fun part—you don’t.
Ich nenne dieses Phänomen die KI-Fachkompetenzschwelle. Eine Grenze des Vorwissens, unterhalb derer KI-Nutzung nicht nur wirkungslos wird, sondern kontraproduktiv. Unterhalb dieser Schwelle kann ich KI-Output nicht bewerten, keine guten Fragen stellen, keine sinnvollen Ergebnisse erzielen. Und ich merke es nicht. Denn der Output sieht überzeugend aus. Wie eine professionelle Website über einen Baum-Oktopus. Nur ohne Sasquatch.
Die Schwelle, die schon zu niedrig war, sinkt weiter. Wer KI nutzt, ohne genug zu wissen, merkt nicht, dass er zu wenig weiß, und baut dabei weniger Wissen auf als ohne KI. Das ist kein Leerlauf. Das ist ein Teufelskreis.
Die psychologischen und sozialen Ursachen für problematische Nutzungsweisen von KI-Systemen sind vielfältig. Ein zentraler Faktor ist der sogenannte Automations-Bias: Die flüssige, selbstbewusst wirkende Sprache der KI vermittelt Autorität und nimmt Nutzern komplexe Aufgaben ab. Dadurch sinkt die Bereitschaft, Antworten kritisch zu hinterfragen – insbesondere, wenn sie schnell und kostenlos verfügbar sind.
Hinzu kommt der ausgeprägte Anthropomorphismus vieler Anwender. Sie schreiben Chatbots menschliche Eigenschaften zu und suchen bei ihnen besagte emotionale Unterstützung. Insbesondere einsame Menschen können dadurch in eine Form der Abhängigkeit geraten.