136 private links
In the past three, we’ve gone from casual users freaking out about their first encounters with ChatGPT to the Pentagon staging industrial-strategy-level fights over whether fully autonomous A.I.s can be deployed in war zones without any human oversight. In the next three? Those exponential curves may not bring us to a new godhead, but the genie doesn’t exactly look like it’s going back in the bottle, either. And those hoping to play a more active role in shaping the future that it’s conjuring will probably have to do more than stop ground from being broken for a few new data centers.
The command line is hot again. For some people, command lines were never not hot, of course, but it’s becoming more common now in the age of AI. Google launched a Gemini command-line tool last year, and now it has a new AI-centric command-line option for cloud products. The new Google Workspace CLI bundles the company’s existing cloud APIs into a package that makes it easy to integrate with a variety of AI tools, including OpenClaw. How do you know this setup won’t blow up and delete all your data? That’s the fun part—you don’t.
Ich nenne dieses Phänomen die KI-Fachkompetenzschwelle. Eine Grenze des Vorwissens, unterhalb derer KI-Nutzung nicht nur wirkungslos wird, sondern kontraproduktiv. Unterhalb dieser Schwelle kann ich KI-Output nicht bewerten, keine guten Fragen stellen, keine sinnvollen Ergebnisse erzielen. Und ich merke es nicht. Denn der Output sieht überzeugend aus. Wie eine professionelle Website über einen Baum-Oktopus. Nur ohne Sasquatch.
Die Schwelle, die schon zu niedrig war, sinkt weiter. Wer KI nutzt, ohne genug zu wissen, merkt nicht, dass er zu wenig weiß, und baut dabei weniger Wissen auf als ohne KI. Das ist kein Leerlauf. Das ist ein Teufelskreis.
Die psychologischen und sozialen Ursachen für problematische Nutzungsweisen von KI-Systemen sind vielfältig. Ein zentraler Faktor ist der sogenannte Automations-Bias: Die flüssige, selbstbewusst wirkende Sprache der KI vermittelt Autorität und nimmt Nutzern komplexe Aufgaben ab. Dadurch sinkt die Bereitschaft, Antworten kritisch zu hinterfragen – insbesondere, wenn sie schnell und kostenlos verfügbar sind.
Hinzu kommt der ausgeprägte Anthropomorphismus vieler Anwender. Sie schreiben Chatbots menschliche Eigenschaften zu und suchen bei ihnen besagte emotionale Unterstützung. Insbesondere einsame Menschen können dadurch in eine Form der Abhängigkeit geraten.