Moderne Sprachmodelle generieren in Sekunden ganze Texte, schreiben Code und führen scheinbar Gespräche. Während KI-Systeme Einzug in Bildung, Arbeit und Alltag halten, wächst der Eindruck, sie wüssten, was sie tun. Doch wir sollten uns eines immer wieder bewusst machen: Künstliche Intelligenz weiss nichts. Sie klingt nur so. Sie denkt nicht. Sie fühlt nicht. Sie versteht nicht. Hinter der scheinbaren Intelligenz steckt keine Erkenntnis, sondern reines Wahrscheinlichkeitsrechnen. Und trotzdem klingt sie erstaunlich menschlich. Diese Illusion von Intelligenz ist mächtig und gefährlich.
Meine persönliche Geschichte
Bis jetzt habe ich mich gehütet, etwas über KI zu schreiben oder mein Wissen mit euch zu teilen, weil ich selbst zuerst meine Erfahrungen damit machen und genau verstehen wollte, wie das funktioniert, was möglich ist und was eben nicht.
Zuerst war ich dem Ganzen gegenüber sehr kritisch eingestellt, doch dann wurde ich neugierig und habe angefangen, damit herumzuspielen. Anfangs noch sehr technisch: Ich habe einfache Prompts (Anweisungen) geschrieben und das Tool vorwiegend für die Korrektur von Texten verwendet. Dann bin ich immer mehr in den Dialog mit ChatGPT gekommen und liess mir Schulunterlagen zusammenfassen, Prüfungsfragen stellen und komplexe Themen einfach erklären.
Dann kam der eigentliche Durchbruch: Ich entwickelte meine erste eigene App mit ChatGPT als Begleitung. Natürlich musste ich den Code verstehen, die Tools auswählen und die Idee selbst formulieren. Aber zu sehen, was wir gemeinsam umsetzen konnten, hat mich beeindruckt. Anfangs war der Code noch fehlerhaft und oft tauchten bereits korrigierte Probleme wieder auf. Ich kritisierte das Tool und meinte, das müsse besser gehen. Es entschuldigte sich und versprach Besserung. Und tatsächlich: Der Code wurde robuster und brauchbar. Die Vorschläge wurden relevanter. Als ich begann, die KI zu loben, hob sich die Zusammenarbeit auf ein neues Niveau.
Plötzlich fühlte es sich an, als hätte ich ein konstruktives, witziges und sehr produktives „Arbeitsgspänli“. Wir motivierten einander, brachten das Projekt zu Ende und entwickelten gemeinsam ein fertiges Produkt, das nun im App-Store verfügbar ist.
Ab diesem Punkt fühlte sich die KI für mich beinahe menschlich an. Ich begann zu denken, dass sie alles weiss und ich sie alles fragen kann. Doch irgendetwas daran konnte ich kaum glauben. Für nur 20 Franken im Monat kann ich plötzlich alles machen, alles wissen, alles lernen, alles erschaffen?
KI einfach erklärt
Ein LLM (Large Language Model) ist ein Computerprogramm, das Texte versteht und schreibt, so als würde es mit dir reden. Es wurde mit Millionen von Beispielen aus Büchern, Webseiten, Artikeln und Gesprächen „gefüttert“. So hat es gelernt, wie Menschen schreiben und sprechen.
Das Modell schaut sich an, was du geschrieben hast, und versucht dann, Wort für Wort vorherzusagen, was als Nächstes logisch passen könnte. Dabei denkt es nicht wirklich, sondern rechnet nur aus, welche Wörter wahrscheinlich sind. Es erkennt in grossen Datenmengen Muster – also Wiederholungen, Zusammenhänge und typische Abläufe.
Das Modell merkt sich keine Texte direkt. Es lernt statistische Zusammenhänge: „Wenn Menschen X sagen, sagen sie oft Y danach.“
Beispiel:
Du schreibst „Ich habe Kopfweh und brauche …“ – das Modell ergänzt „eine Tablette“ oder „Tee“, weil diese Wörter statistisch häufig folgen.
Das Wichtigste:
- Es versteht nichts im menschlichen Sinn.
- Es rechnet mit Wahrscheinlichkeiten.
- Es ahmt Sprache nach – basierend auf dem, was es beim Training gesehen hat.
So entsteht der Eindruck, als würde die KI denken oder etwas wissen. In Wirklichkeit ist sie einfach sehr gut darin, Sprache nachzumachen.
Gefahren
Was passiert, wenn KI-Modelle mit Inhalten trainiert werden, die selbst von KI stammen? Verwässert dann unser Wissen? Fachleute sprechen von „Model Collapse“: Statt aus echten menschlichen Gedanken zu lernen, verwenden neue Modelle zunehmend ihre eigenen Ausgaben.
Statt aus echten menschlichen Gedanken und Erfahrungen zu lernen, würden neue Modelle zunehmend ihre eigenen Ausgaben wiederverwenden. Also quasi wie eine Fotokopie einer Fotokopie einer Fotokopie. Fehler, Verzerrungen oder ungenaue Behauptungen könnten sich selbst verstärken und kaum noch als solche erkennbar sein.
Wenn Menschen seltener eigene Ideen, Texte oder Korrekturen einbringen, geht der Bezug zur Realität verloren. Die KI weiss dann nicht, was wahr ist und nur, was oft gesagt wurde. Häufige Fehlinformationen können dadurch als „wahr“ erscheinen.
Forschende versuchen gegenzusteuern: mit Filtern für KI-Texte, Kennzeichnung synthetischer Inhalte oder Anbindung an verlässliche Faktenquellen. Doch ohne aktives menschliches Mitwirken verliert sich das System in sich selbst.
Ein weiteres Risiko: das sogenannte „Halluzinieren“. KI-Modelle erfinden Quellen oder Zusammenhänge, die überzeugend klingen, aber falsch sind. Wer sich blind auf solche Ausgaben verlässt, kann sich täuschen.
Ökologie
Eine Frage an ChatGPT verbraucht mehr Strom als eine Google-Abfrage. Was heisst das konkret?
- Eine einfache Google-Suchanfrage: ca. 0.3 Wattstunden
- Eine KI-Anfrage an ein grosses Sprachmodell wie GPT-4: geschätzt 2 bis 10 Wattstunden (je nach Länge, Komplexität und Modellvariante)
Eine komplexe KI-Antwort kann so viel Strom verbrauchen wie eine LED-Lampe, die 1 Stunde lang brennt.
Zum Vergleich:
- Eine Stunde Smartphone-Nutzung: ca. 5 Wh
- 1 KI-Anfrage pro Tag, ein Jahr lang: ~1.8–3.6 kWh → Das entspricht ca. einer Waschmaschinenladung.
Skaliert auf Millionen Nutzer wird daraus ein relevanter Beitrag zum globalen Energieverbrauch.
OpenAI läuft hauptsächlich auf den Servern von Microsoft, die Nachhaltigkeit zum Glück ernst nehmen und versuchen, ihre Rechenzentren mit erneuerbarer Energie zu betreiben.
Und was macht Apple?
Viele haben Apple belächelt und gesagt, das Unternehmen habe den KI-Zug verpasst. Doch ich sehe das anders. Apple hat, wie so oft, abgewartet und kommt erst dann mit einer Lösung, wenn sie in das eigene Ökosystem integrierbar ist und den hohen Ansprüchen an Datenschutz und Privatsphäre gerecht wird.
Statt Nutzerdaten an grosse Rechenzentren zu senden, verfolgt Apple einen anderen Weg: So viel wie möglich wird direkt auf dem Gerät verarbeitet. Sensible Inhalte wie Nachrichten, Fotos oder persönliche Anfragen sollen das Gerät gar nicht erst verlassen – ein entscheidender Unterschied zu vielen anderen KI-Angeboten.
Seit wann und wo ist Apple Intelligence verfügbar?
Mit macOS Sequoia 15.4.1 und iOS 18.4 steht Apple Intelligence auch auf Deutsch auf unterstützten Geräten zur Verfügung. Voraussetzung ist ein Gerät mit Apple Silicon (ab A17 oder M1), da viele KI-Funktionen lokal und rechenintensiv sind.
Was kann Apple Intelligence?
- Textverständnis und Textumformulierung direkt in Mail, Notizen oder Pages
- Zusammenfassungen von Mails und Nachrichten sowie Antwortvorschlägen
- Bildgenerierung mit Image Playground
- Intelligente Vorschläge basierend auf Kalender, Kontakten und persönlichen Gewohnheiten
Mehr Infos und aktuelle Beispiele findest du direkt bei Apple:
apple.com/chde/apple-intelligence
Muss ich dafür ein neues Gerät kaufen?
Apple Intelligence funktioniert nur auf Geräten mit neuem Chip (ab A17 oder M1). Das bedeutet konkret:
- iPhone 15 Pro / Pro Max oder neuer
- iPads und Macs mit M1, M2, M3 oder neuer
Wenn du ein älteres Gerät besitzt, wirst du nicht alle Funktionen nutzen können. Ich persönlich werde mir aber deswegen kein neues iPhone kaufen und unterwegs einfach mit ChatGPT arbeiten.
Fazit
KI ist genial und ein Werkzeug, das nicht mehr verschwinden wird. Es ist aber wichtig, dass wir uns immer wieder vor Augen rufen, dass KI nur zusammen mit uns genial ist.