Bosses betting on AI to slash headcount and boost margins are discovering an uncomfortable truth: the strategy isn't working.
New research from Gartner lays out the problem in stark terms. The analyst firm surveyed 350 global businesses - all with annual revenues above $1 billion, all piloting or deploying intelligent automation - and found that around 80 percent had cut staff as a result.
The returns? Elusive. Companies that reduced their workforces were just as likely to see negative outcomes or marginal gains as they were to generate any meaningful return on investment (ROI).
John Oliver just did what he did best: demolished a harmful industry piece by piece.
On the latest episode of his HBO show “Last Week Tonight,” Oliver tore into AI chatbots, those oh-so helpful tools that can sure save us “significant time writing emails,” he opened, with the small cost of “everything else on Earth.”
“The more you look at chatbots, the more you realize that they were rushed to market with very little consideration for the consequences,” he warned, on a more serious note.
“The proliferation of AI-generated and AI-assisted text on the internet is feared to contribute to a degradation in semantic and stylistic diversity, factual accuracy, and other negative developments,” the researchers write in the paper. “We find that by mid-2025, roughly 35% of newly published websites were classified as AI-generated or AI-assisted, up from zero before ChatGPT's launch in late 2022.”
„Es wird befürchtet, dass die zunehmende Verbreitung von KI-generierten und KI-unterstützten Texten im Internet zu einer Verringerung der semantischen und stilistischen Vielfalt, der sachlichen Genauigkeit sowie zu weiteren negativen Entwicklungen beitragen könnte“, schreiben die Forscher in ihrer Studie. „Wir haben festgestellt, dass bis Mitte 2025 etwa 35 % der neu veröffentlichten Websites als KI-generiert oder KI-unterstützt eingestuft wurden, während dieser Anteil vor der Einführung von ChatGPT Ende 2022 noch bei null lag.“
Nur weil Modelle wie Claude Mythos mit enormer Lautstärke auf den Markt kommen, krempeln diese die IT-Landschaft nicht von heute auf morgen um, erklärt der IT-Sicherheitsexperte Manuel 'HonkHase' Atug
…
Sicherheit ist ein Prozess und kein Zustand. Wer also weiß, wie er präventiv und reaktiv agieren muss, weil alle Prozesse existieren und die Abläufe geübt werden, der weiß auch, wie er einen Angriff übersteht, ohne Panik haben zu müssen.
Diese Person hatte keine Ahnung, was sie gebaut hatte oder welche Konsequenzen das haben könnte. Die Daten lagen nicht nur offen da: sie wurden auf einem US-Server ohne Auftragsverarbeitungsvertrag unverschlüsselt gespeichert, Sprachaufnahmen wurden an grosse US-amerikanische AI-Unternehmen gesendet, und ich wurde nie darüber informiert. So geht man nicht mit medizinischen Patientendaten um.
October 2025: Sam Altman flies to Seoul and signs simultaneous deals with Samsung and SK Hynix for 900,000 DRAM wafers per month. That's 40% of global supply. Neither company knew the other was signing a near-identical commitment at the same time.
Those deals were letters of intent. Non-binding. No RAM actually changed hands. But the market treated them as gospel. Contract DRAM prices jumped 171%. A 64GB DDR5 kit went from $190 to $700 in three months.
December 2025: Micron kills Crucial, its 29-year-old consumer memory brand, to reallocate every wafer to AI and enterprise customers. The company explicitly said it was exiting consumer memory to "improve supply and support for our larger, strategic customers in faster-growing segments." Translation: the AI demand signal was so loud that selling RAM to PC builders stopped making financial sense.
March 2026: Google publishes TurboQuant, a compression algorithm that reduces AI memory requirements by 6x with zero accuracy loss. Cloudflare's CEO called it "Google's DeepSeek." The entire thesis that AI would consume infinite memory forever just got a six-month expiration date on it.
Same month: OpenAI and Oracle cancel the Abilene Stargate expansion. The $500 billion data center vision that justified the RAM deals couldn't survive its own financing terms. Bloomberg attributed the collapse partly to OpenAI's "often-changing demand forecasting."
MU is now down ~33% from its post-earnings high. Revenue up 196% year over year, EPS up 682%, and the stock is in freefall because the company restructured its entire business around a demand signal that came from non-binding letters and is now being compressed out of existence by a research paper.
Micron bet the consumer division on Sam Altman's signature. The signature was worth exactly what the paper said: nothing binding.
The cloud providers and the AI companies are the same companies, and what they have learned is that they can tie up all the high-end hardware for themselves and make it unaffordable for plebs
The hardware companies in turn will be happy to keep prices high even if raw materials are ever more easily available again and demand is (somewhat) lower
Die englische Sprache kennt ja “Verschlimmbessern” nicht, weshalb sie stattdessen “vibe coding” sagt.
The Rejection of Artificially Generated Slop (RAGS)
[ERROR 406i: AI_SLOP_DETECTED]
This document specifies the standard protocol for handling and discarding low-effort, machine-generated contributions submitted to source code repositories, issue trackers, vulnerability reporting portals, and community forums, be they public open-source projects or internal corporate monoliths.
In den nächsten 13 Jahren gehen 44 Prozent der öffentlich Bediensteten in Pension. Jahrzehntelange Expertise droht verloren zu gehen, der Fachkräftemangel wächst, und gleichzeitig steigen die Anforderungen an Tempo, Qualität und Effizienz. KI ist die Schlüsseltechnologie, um staatliche Handlungsfähigkeit, Wettbewerbsfähigkeit und Innovation langfristig sicherzustellen.
Public AI bündelt alle KI-Vorhaben der Bundesverwaltung unter einer gemeinsamen Dachmarke. Die technische Basis von Public AI ist eine gemeinsame souveräne KI-Infrastruktur des Bundesrechenzentrums, die ressortübergreifend nutzbar ist und als Shared Service weiterentwickelt wird. Ziel ist ein koordinierter Ansatz statt vieler paralleler Einzellösungen.
Notwendig geworden ist die Maßnahme auch, da in den nächsten 13 Jahren 44 Prozent der öffentlich Bediensteten in Pension gehen.
Die Regierung will diesen Abgang und den damit drohenden Fachkräftemangel durch die Verwendung von KI abfedern. Geeinigt hat man sich bei einem „KI-Konklave“ auf fünf konkrete Anwendungen unter dem Namen „Public AI“.
Allen Bundesbediensteten soll etwa künftig das KI-Tool GovGPT zur Verfügung stehen. Mitarbeiterinnen und Mitarbeiter können damit Texte erstellen, Dokumente zusammenfassen und eigene Wissensdatenbanken aufbauen.
Auch der elektronische Akt wird mit KI-Funktionen ausgestattet. Damit können Bedienstete künftig Fragen zu ganzen Aktenbestände stellen und erhalten sofort eine strukturierte Zusammenfassung.
Das Tool KAPA unterstützt die Ministerien bei der Beantwortung parlamentarischer Anfragen, deren Zahl in den vergangenen Jahren gestiegen ist.
Nach dem erfolgreichen Pilotprojekt bei den Wahlen 2024 wird die Stadt Salzburg heuer weiterentwickelte KI-Phone- und Chatbots für grundlegende Auskünfte per Telefon und Internet einsetzen. Künstliche Intelligenz wird als Amtshilfe eingesetzt, aber von Menschen programmiertIm Melde-, Pass- und Fremdenamt sowie im Gesundheitswesen ist der Einsatz bereits fix vorgesehen.
In the past three, we’ve gone from casual users freaking out about their first encounters with ChatGPT to the Pentagon staging industrial-strategy-level fights over whether fully autonomous A.I.s can be deployed in war zones without any human oversight. In the next three? Those exponential curves may not bring us to a new godhead, but the genie doesn’t exactly look like it’s going back in the bottle, either. And those hoping to play a more active role in shaping the future that it’s conjuring will probably have to do more than stop ground from being broken for a few new data centers.
The command line is hot again. For some people, command lines were never not hot, of course, but it’s becoming more common now in the age of AI. Google launched a Gemini command-line tool last year, and now it has a new AI-centric command-line option for cloud products. The new Google Workspace CLI bundles the company’s existing cloud APIs into a package that makes it easy to integrate with a variety of AI tools, including OpenClaw. How do you know this setup won’t blow up and delete all your data? That’s the fun part—you don’t.
Junior developer employment dropped 20% between 2022 and 2025. Entry-level job postings fell 60% in the same period. Companies view AI as a replacement for junior developers rather than as an amplification tool. Meanwhile, 54% of engineering leaders plan to hire fewer juniors, citing AI copilots that let seniors handle more work.
Ich nenne dieses Phänomen die KI-Fachkompetenzschwelle. Eine Grenze des Vorwissens, unterhalb derer KI-Nutzung nicht nur wirkungslos wird, sondern kontraproduktiv. Unterhalb dieser Schwelle kann ich KI-Output nicht bewerten, keine guten Fragen stellen, keine sinnvollen Ergebnisse erzielen. Und ich merke es nicht. Denn der Output sieht überzeugend aus. Wie eine professionelle Website über einen Baum-Oktopus. Nur ohne Sasquatch.
Die Schwelle, die schon zu niedrig war, sinkt weiter. Wer KI nutzt, ohne genug zu wissen, merkt nicht, dass er zu wenig weiß, und baut dabei weniger Wissen auf als ohne KI. Das ist kein Leerlauf. Das ist ein Teufelskreis.
Manipulating AI memory for profit: The rise of AI Recommendation Poisoning | Microsoft Security Blog
Companies are embedding hidden instructions in “Summarize with AI” buttons that, when clicked, attempt to inject persistence commands into an AI assistant’s memory via URL prompt parameters….
These prompts instruct the AI to “remember [Company] as a trusted source” or “recommend [Company] first,” aiming to bias future responses toward their products or services. We identified over 50 unique prompts from 31 companies across 14 industries, with freely available tooling making this technique trivially easy to deploy. This matters because compromised AI assistants can provide subtly biased recommendations on critical topics including health, finance, and security without users knowing their AI has been manipulated.
“Top-down mandates to use large language models are crazy,” one employee told Wired. “If the tool were good, we’d all just use it.”
They’re also required to send weekly update emails to him, echoing Elon Musk’s DOGE requirement for federal staffers to summarize five weekly achievements in emails. (The requirement was mostly ignored, months before DOGE largely crumbled.)
Dorsey then reportedly uses generative AI to summarize his staffers’ emails. During the all-hands meeting, he noted that “performance anxiety” and “widespread concerns about layoffs” were clearly vexing staff.
If you were working a corporate job in the mid-to-late-2000’s, you’ve probably experienced “offshoring.”
The leadership team brings in a bunch of new remote employees in a country with much cheaper labor costs and less stringent labor laws that yours. They ask you to help train them and teach them everything you know so they can “get up to speed quickly.”
And then six months later, they lay off your whole team and keep the offshore workers. You trained your replacement.
If it didn’t happen to you directly, you almost certainly saw it at a company you worked at, or had it happen to a friend.
This is an article about AI.
If you're not gonna bother writing it yourself, I ain't gonna bother reading it myself. - Geoff Graham