Vorab: Dieser Blogbeitrag wurde mit Unterstützung einer generativen KI verfasst. Im Arbeitsalltag fehlt ein entsprechender Hinweis oft und der Einsatz solcher Werkzeuge wird nicht transparent gemacht. Es herrscht bei vielen noch die berechtigte Angst, dass die Nutzung von KI negativ bewertet wird oder Fehler unterlaufen könnten.
Eine kritische Perspektive auf KI ist durchaus angebracht, denn Technologien sind nie vollkommen wertfrei – sie spiegeln die Werte und Überzeugungen der Menschen wider, die sie entwickeln und nutzen. Auch bei KI-Anwendungen gibt es daher Herausforderungen, wie etwa Fragen zu Datenschutz, Transparenz oder Biases.
Dennoch sollte Unsicherheit im Umgang mit KI nicht dazu führen, dass Chancen ungenutzt bleiben. Mit Richtlinien können Organisationen einen Rahmen schaffen, der den sicheren und verantwortungsvollen Einsatz von KI gewährleistet. So können sie aktiv mitbestimmen, wie KI sinnvoll und ethisch in der eigenen Organisation genutzt wird. Denn besonders in gemeinnützigen Organisationen ist es entscheidend, dass der Grundsatz gilt:
Die Technologie muss dem Menschen dienen – und nicht umgekehrt.
Annabelle Behnke ist Teamleiterin „Ehrenamt und Breitenausbildung“ im DRK-Generalsekratariat und hat an der Entwicklung der KI-Guidelines für das Generalsekretariat mitgearbeitet. Im Gespräch teilt sie ihre Erfahrungen aus der Arbeitsgruppe und erklärt, wie der Prozess ablief.
Liebe Annabelle Behnke, wie geht man die Entwicklung von KI-Guidelines als Prozess an?
Annabelle: Wichtig ist, direkt ins Tun zu kommen und sich mit der Technologie auseinander zu setzten, ohne sie zu verteufeln. Relevante Stakeholder müssen identifiziert werden, wie z. B. aus den Bereichen Datenschutz und IT und diese in die Erstellung eingebunden werden. Der Fokus in unserer Arbeitsgruppe lag darauf, Risiken zu minimieren und gleichzeitig die Chancen von KI zu nutzen. Dazu haben wir typische Anwendungsfelder aus dem Arbeitsalltag ausgesucht. Um sicherzustellen, dass keine personenbezogenen oder verbandsinternen Daten gefährdet werden, sollten für die Kontexte klare Guidelines für die Nutzenden bereitstehen.
Wie bindet man Stakeholder in den Prozess ein?
Annabelle: Stakeholder wurden frühzeitig durch regelmäßige AG-Treffen eingebunden, um sicherzustellen, dass ihre Perspektiven berücksichtigt werden. Wir haben aber im Laufe der Zeit gemerkt, dass wir nachsteuern mussten, weil bei diesem komplexen Thema eben viele Bereiche involviert sein müssen und wir nicht von Anfang an alle auf dem Schirm hatten. Am Ende wurde so gut wie möglich Transparenz geschaffen, während gleichzeitig alle relevanten Abteilungen in den Entscheidungsprozess integriert und für die verschiedenen Aspekte Federführende benannt wurden.
Welche Rolle spielt der EU AI Act in diesem Kontext? Gibt es weitere rechtliche Aspekte zu bedenken?
Annabelle: Der EU AI Act schafft klare Rahmenbedingungen für den Einsatz von KI, insbesondere in Bezug auf Risikobewertung und Transparenz. Vieles wird allerdings bereits durch die DSGVO abgedeckt, gerade wenn es um den Schutz personenbezogener Daten geht. Entwickelnde und bereitstellende Akteure (bspw. das DRK-Generalsekretariat) sind beide für den verantwortungsvollen Umgang mit Daten verantwortlich. Wichtig ist auch, dass auch die Verantwortung innerhalb der Organisation klar geregelt und kommuniziert wird und entsprechende Schulungen für Mitarbeitende angeboten werden.
Welche spezifischen Aspekte muss man als Verband wie das DRK berücksichtigen?
Annabelle: Als gemeinnützige Organisation verarbeitet das DRK zwangsläufig Daten vulnerabler Zielgruppen, die besonders geschützt werden müssen. Nicht außer Acht gelassen werden sollten aber auch die Nachhaltigkeits- und Umweltaspekte. Der Wasserverbrauch und der CO₂-Ausstoß von Technologien bleiben oft unsichtbar, können aber auch einen Einfluss auf das Klima haben und können so z.B. auch Bevölkerungsschutzszenarien beeinträchtigen. Diese Faktoren sollten in die Überlegungen zum Einsatz von KI einfließen.
Was waren eure größten Lernerfahrungen bei der Entwicklung der Guidelines?
Annabelle: Ein wesentliches Learning war, dass Personen mit technischem Verständnis in der Arbeitsgruppe eine wirklich große Hilfe sind. Zudem ist eine klare Moderation wichtig, um Termine effizient zu koordinieren, vor allem falls das Thema zunächst on top auf die Kolleginnen und Kollegen zukommt und keine Mittel für weitere Unterstützung zur Verfügung stehen sollten. Um auf dem neuesten Stand zu bleiben und Inspiration zu finden, sollte man regelmäßig Input von außen einholen, bspw. durch Newsletter anderer Organisationen. Ein hilfreiches Tool ist zudem das Ethics Canvas das helfen kann, frühzeitig blinde Flecken und ethische Risiken im Projekt mit zu denken.
Wie das Beispiel zeigt, ist ein strukturierter und offener Entwicklungsprozess der Schlüssel zu erfolgreichen KI-Richtlinien. Wichtig ist jedoch auch, dass nach der Entwicklung der Guidelines ihre Implementierung und Verstetigung in der Organisation sichergestellt wird. Mitarbeitende sollten kontinuierlich geschult und die Richtlinien regelmäßig überprüft werden, um sie an neue Entwicklungen anzupassen.
Dabei spielt auch das Konzept des Legal (Communication) Design eine wichtige Rolle. Es geht darum, juristische Dokumente und Inhalte so zu gestalten, dass sie klar verständlich sind und bei den richtigen Personen ankommen. Gerade bei komplexen Themen wie KI-Guidelines hilft Legal Design, die Inhalte nutzendenfreundlich aufzubereiten, damit Mitarbeitende die Vorgaben nicht nur verstehen, sondern sie auch korrekt und praktisch umsetzen können. So wird gewährleistet, dass die Richtlinien nicht nur auf dem Papier existieren, sondern aktiv im Arbeitsalltag angewandt werden.
Wer sich noch tiefer mit dem Thema KI befassen möchte, kann auf die kostenlosen E-Learning-Kurse auf drk-lernplattform.de zurückgreifen. Die beiden Kurse „Grundlagen Künstliche Intelligenz“ und „Künstliche Intelligenz in sozialen Organisationen“ bieten eine gute Gelegenheit sich ganz unkompliziert mit den Grundlagen und dem verantwortungsvollen Umgang mit KI vertraut zu machen.