Von Technikbegeisterung bis zur Realität vor Ort: Künstliche Intelligenz revolutioniert die Bildungswelt. Aber was hat man wirklich davon, wenn man KI einsetzt? Dieser Artikel analysiert die konkreten Herausforderungen für Schulungsleiter und plädiert angesichts dieser rasanten Entwicklung für einen pragmatischen Ansatz.
Man muss nur LinkedIn öffnen: eine Schwemme von Webinaren zu ChatGPT, Schulungen à la „KI für Bildungsexperten“, Ankündigungen von automatisierten Lernlösungen… Künstliche Intelligenz ist vermeintlich die neue Allzweckwaffe für alle Herausforderungen der Branche. Doch hinter diesem technologischen Hype verbirgt sich eine komplexe Wirklichkeit, die Trainer mit klarem Blick erfassen müssen.
Den Mythos der „KI als Rettung“ entlarven
Beginnen wir mit einer unbequemen Wahrheit: Laut einem aktuellen Bericht des US-Bildungsministeriums fehlt es weiterhin an überzeugender empirischer Evidenz für positive Auswirkungen der generativen KI auf Lernergebnisse. Die UNESCO formuliert dies noch eindeutiger und weist darauf hin, dass es keine „schlüssigen Beweise“ für die Verbesserung der Lernergebnisse durch KI gibt.
Diese Feststellungen laufen dem aktuellen Diskurs entgegen. Wie Rudolph et al. im Journal of Applied Learning & Teaching (2025) prägnant formulieren, kursieren acht Mythen über KI im Bildungsbereich, darunter der Mythos einer Technologie, die die Bildung automatisch „demokratischer, gerechter und umweltfreundlicher“ macht.
Für Bildungseinrichtungen und Ausbildungsstellen für Lehrberufe ist die Lektion klar: KI ist kein Allheilmittel, sondern ein Werkzeug, dessen Erfolg davon abhängt, wie gut es in durchdachte pädagogische Konzepte integriert wird.
Fragen, die sich alle Bildungsexperten stellen sollten
Angesichts der vielen KI-Lösungen, die den Markt überschwemmen, drängen sich drei wesentliche Fragen auf:
- Wer entwickelt diese Lösungen unter welchen pädagogischen Annahmen? Viele KI-Tools werden von IT-Spezialisten ohne Fachwissen in Bildungswissenschaften entwickelt und reproduzieren traditionelle akademische Standards, die die Vielfalt der Lernpfade beeinträchtigen können.
- Anhand welcher Daten werden diese KI-Lösungen trainiert? Taugt eine KI, die hauptsächlich mit akademischen Inhalten aus den USA trainiert wird, für die Ausbildung in Handwerksberufen in Frankreich?
- Wie kann dafür gesorgt werden, dass KI-Tools Ungleichheiten nicht noch verstärken? Eine Studie aus dem Jahr 2024 zeigt, dass einige Tools für prädiktive Analytik den Erfolg von Lernenden aus Randgruppen systematisch unterschätzen und damit die Ungleichheiten, die sie angeblich bekämpfen, noch verstärken.
5 Grundsätze für eine KI, die sich in den Dienst der Weiterbildung stellt
Ungeachtet der Einwände: Wie kann KI effektiv und sinnvoll in der Weiterbildung eingesetzt werden? Hier sind fünf praktische Leitlinien, die jede Bildungseinrichtung umsetzen kann.
1. Transparenz: Das Recht auf Information
Die Lernenden müssen explizit darüber informiert werden, wann und wie die KI ihren Lernpfad beeinflusst. Dies ist eine moralische Verpflichtung.
Konkrete Anwendung: Integrieren Sie in Ihre Schulungsmaterialien einen Abschnitt „Einsatz von KI“ und erklären Sie anschaulich, wie Sie KI einsetzen.
2. Humane Kontrolle: Der Algorithmus trifft niemals Entscheidungen im Alleingang.
Wie die Philosophin Shannon Vallor (2024) feststellt, setzt die KI „mathematische Konstrukte ein, um menschliches Denken zu simulieren“, aber sie denkt nicht wirklich. In der Weiterbildung bedeutet dies, dass alle wichtigen Entscheidungen in Bezug auf die Bewertung oder Orientierung eines Lernenden niemals von der KI allein getroffen werden dürfen – es muss immer eine Prüfung durch einen Menschen durchgeführt werden.
Konkrete Anwendung: Verwenden Sie KI, um ein vorläufiges Feedback zu erstellen, jedoch sollte dieses Feedback immer von einem Schulungsleiter überarbeitet werden, der die entsprechenden Nuancen und den Kontext beisteuert.
3. Daten: weniger ist mehr
Die Daten der Lernenden sind sensibel und wertvoll. Die Erhebung dieser Daten muss auf das absolut Notwendige beschränkt sein, mit ausdrücklicher Zustimmung seitens der Lernenden und einem klar benannten Verwendungszweck.
Konkrete Anwendung: Prüfen Sie Ihre KI-Tools und stellen Sie fest, welche Daten sie für welchen Zweck erfassen. Löschen Sie alle nicht wesentlichen Angaben.
4. Echte Inklusion: Vielfalt neu denken
Algorithmische Verzerrungen entstehen nicht zufällig, sondern spiegeln die Vorurteile der Menschen wider, die diese Algorithmen entwickeln. Eine inklusive KI erfordert ein an Vielfalt orientiertes Design und Tests mit unterschiedlichen Zielgruppen.
Konkrete Anwendung: Testen Sie Ihre KI-Tools anhand unterschiedlicher Zielgruppen (nach Alter, Geschlecht, sozialer Herkunft, Ausgangsniveau), um mögliche Verzerrungen in den Ergebnissen zu erkennen.
5. Kritische Bewertung: der Durchschnitt ist nicht ausschlaggebend
Die Wirkung eines KI-Tools sollte nicht nur anhand der durchschnittlichen Leistung beurteilt werden, sondern auch danach, wie es sich auf die leistungsschwächsten Lernenden auswirkt.
Konkrete Anwendung: Analysieren Sie die Ergebnisse Ihrer KI-gestützten Tools, indem Sie die Daten nach Lernerprofilen aufschlüsseln, um eine mögliche Diskriminierung zu erkennen.
Algorithmuskritisches Denken fördern
Über den Einsatz von KI hinaus haben Bildungseinrichtungen eine Verantwortung: Sie müssen den Lernenden beibringen, KI-Tools zu verstehen, ihre Grenzen zu erkennen und sie vernünftig einzusetzen.
Es gibt bereits mehrere Initiativen, die diesen Ansatz verfolgen. So verabschiedete die Universität Orléans im März 2024 eine Bildungsrichtlinie zur Nutzung von KI, die darauf abzielt, „die akademische Gemeinschaft für einen bewussten, kritischen und ethischen Umgang zu sensibilisieren“.
Berufsbildungseinrichtungen könnten diese Idee wie folgt umsetzen:
- Querschnittsmodule zur beruflichen Nutzung von KI ;
- Praxis-Workshops zur kritischen Bewertung von KI-Antworten;
- Übungen, bei denen das Ergebnis menschlicher Arbeit mit den Ergebnissen von Algorithmen verglichen wird;
Entwicklung ethischer Standards für den Einsatz von KI in der Weiterbildung
Das bloße Verfassen von KI-Richtlinien reicht nicht aus. Bildungseinrichtungen benötigen konkrete Steuerungsmechanismen:
- Einrichtung einer Ethikkommission, an der sowohl Trainer als auch Lernende beteiligt sind;
- regelmäßige Audits von KI-Tools, die für Lernpfade verwendet werden;
- Ethikklauseln in Verträgen mit Anbietern von KI-Lösungen;
- Meldemechanismen für Lernende bei umstrittenen algorithmischen Entscheidungen.
Einige Unternehmen beginnen damit, solche internen Richtlinien zu systematisieren. Bildungseinrichtungen können sich an diesen Richtlinien orientieren, wenn sie eigene, an ihre spezifischen Bedürfnisse angepasste Vorgaben erstellen wollen.
Jenseits der Technik: Pädagogik neu denken
Der Einzug der KI in den Bildungsbereich ist nicht nur eine Frage der Tools. Dieses Phänomen sollte uns dazu veranlassen, unsere pädagogischen Methoden auf den Prüfstand zu stellen: Was bedeutet Lernen im Zeitalter von Maschinen, die Intelligenz simulieren? Welche Fähigkeiten sind entscheidend, wenn sämtliche Informationen nur wenige Klicks entfernt sind?
KI kann entweder eine standardisierte, industriell geprägte Sicht auf Bildung verstärken oder zum Katalysator für einen persönlichen, menschlicheren Ansatz werden. Welche Richtung eingeschlagen wird, hängt von den Schulungsleitern ab.
In der Weiterbildung besteht die Herausforderung nicht darin, die effiziente Nutzung automatisierter Tools zu vermitteln, sondern selbstständiges Denken und die Fähigkeit zur kritischen Betrachtung algorithmisch erzeugter Informationen. Diese Technologien müssen als echte Hebel zur Emanzipation genutzt werden.
Technik allein führt nicht automatisch zu mehr Emanzipation. Es hängt davon ab, wie wir sie nutzen, welche Vorgaben wir erstellen, welche Werte wir verteidigen – auf diesem Weg kann KI zu mehr Fortschritt führen.
Jenseits der Faszination für Technologie
In einem Bildungssektor, der bereits mit zahlreichen Herausforderungen regulatorischer, wirtschaftlicher und pädagogischer Natur konfrontiert ist, darf die KI nicht zu einer Nebelkerze werden, die den Blick auf grundlegende Fragen erschwert. Die KI kann uns jedoch aufzeigen, welche impliziten pädagogischen Entscheidungen wir treffen.
Für Bildungseinrichtungen und -experten geht es darum, die technische Entwicklung weder blind abzulehnen noch unkritisch zu übernehmen. Es geht um einen dritten Weg: KI muss integriert werden – durchdacht, unter Berücksichtigung ethischer Grundsätze und auf den Menschen ausgerichtet.
In der digitalen Bildung reicht reine Innovation nicht aus, es geht um Transformation. In dieser sorgfältig konzipierten Transformation liegt die Zukunft des Sektors.
Literatur
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency) (S. 610-623).
- Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
- Gándara, D., Anahideh, H., Ison, M., & Picchiarini, L. (2024). Inside the black box: Detecting and mitigating algorithmic bias across racialized groups in college student-success prediction. AERA Open, 10(1), 1-15.
- Lindgren, S. (2023). Critical Studies of AI: Power, Politics, and Ethics. Oxford University Press.
- Popenici, S. (2023). Artificial Intelligence and Learning Futures: Critical Narratives of Technology and Imagination in Higher Education. Routledge.
- Rudolph, J., Ismail, F., Tan, S., & Seah, P. (2025). AI snake oil: How generative AI myths distort reality. Journal of Applied Learning & Teaching, 8(1), 1-46.
- Said, E. (1994). Representations of the Intellectual. The 1993 Reith Lectures. Vintage Books.
- U.S. Department of Education. (2023). Artificial Intelligence and the Future of Teaching and Learning: Insights and Recommendations.
- Vallor, S. (2024). The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking. Oxford University Press.
- Université de Lille. (2025). Charte des bonnes pratiques sur l’usage de l’IA générative dans les travaux pédagogiques. AEF Info
- Université d’Orléans. (2024). Charte pédagogique et informative sur l’IA. AEF Info
- Gouvernement français. (2025). Charte nationale sur l’IA à l’école annoncée par Élisabeth Borne. Le Figaro
- Éditions Législatives. (2024). L’université de l’ANDRH : Les entreprises se dotent de chartes éthiques sur l’IA. Éditions Législatives.