Am 13.05.2024 wurde von OpenAi Chat GPT-4o vorgestellt. Dabei steht das „o“ für Omni. Omni ist der lateinische Präfix für ganz, jeder, alles. Getreu dem Motto steht der aktualisierte Bot jedem zur Verfügung. Lediglich Nutzer*innen die es „unlimitiert“ nutzen wollen, sollten ein entsprechendes Abo abschließen. Nicht zuletzt aus Marketinggründen wird sich gegen die Bezeichnung 5.0 entschieden worden sein, können doch die Erwartungen an eine neue Version zu hoch sein. GPT-4o arbeitet nun mit einem Datenstand von Oktober 2023 (zuvor ca. 2021).
Was erwartet uns bei GPT-4o?
Es ist deutlich schneller als die Vorversion und verspricht dabei auch deutlich weniger Energie zu verbrauchen. Ist dies doch ein wesentlicher Kritikpunkt an KI-Modellen.
Mit dem Sprachmodus ist es nun noch einfacher mit Chat-GPT zu kommunizieren und die Ergebnisse sind echt beeindruckend. Anders als die bisherigen Sprachassistenzen, überzeugt GPT-4o mit einer deutlich lebendigerer Sprache.
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Eine Gutenachtgeschichte vom GPT-4o
Die Fähigkeit, Text, Vision und Audio in einem einzigen neuronalen Netzwerk zu verarbeiten, eröffnet aufregende Möglichkeiten für das Verständnis natürlicher Sprache und die Interaktion mit Benutzern.
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Dolmetschern in Echtzeit
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Touristenguide
Aufwertungen für bisherige Nutzer*innen
Durch das Update stehen den Gratisnutzer*innen nun einige Funktionen zur Verfügung, die bisher nur in der Bezahlversion enthalten waren. So können eigene Texte bspw. per PDF in den Chat eingefügt und entsprechend verarbeitet werden. Ich habe es Testweise mit dem Landesrahmenvertrag nach SGB IX für das Land Niedersachsen gemacht und den Bot entsprechend nach Inhalten befragt. Aus Basis eingefügter Daten können Analysen und Grafiken erstellt werden.
GPT-4o wird schrittweise eingeführt und ist im Browser, per APP und auf dem PC (Mac) verfügbar. Eine einzelne Windows-App gibt es noch nicht, dies wird wohl nicht zuletzt daran liegen, das Microsoft einer der größten Investoren bei OpenAi ist und ihren eigenen Copiloten damit speist.
Projekt Dienstplan per KI-Assistenz
Im Betrieb steht die Überarbeitung des bisherigen Dienstplanes an. Man versucht die Interessen der Beschäftigten mit den Erwartungen der Klient*innen und den gesetzlichen Anforderungen in Einklang zu bringen. Mal sehen wie GPT-4o mir dabei helfen kann. Ein Erfahrungsbericht wird folgen.
Die Datenschutzkonferenz (DSK), bestehend aus den unabhängigen Datenschutzbehörden des Bundes und der Länder, hat Anfang Mai eine Orientierungshilfe für den datenschutzkonformen Einsatz von Künstlicher Intelligenz (KI) veröffentlicht. Dieses Dokument richtet sich an Unternehmen, Behörden und andere Organisationen und dient als Leitfaden für datenschutzrechtlich Verantwortliche. Im sozialen Bereich ist diese Orientierungshilfe nochmal intensiver zu betrachten, denn wir haben es häufig mit der Verarbeitung von Gesundheitsbezogen Daten zu tun. Diese Daten unterliegen einem besonderen Schutz und sind besonders sensibel zu verarbeiten.
Anwendungen künstlicher Intelligenz und Datenschutz
Die Orientierungshilfe legt datenschutzrechtliche Kriterien für die Auswahl und den Einsatz von KI-Anwendungen dar. Sie soll als Checkliste dienen, um KI-Anwendungen auszuwählen, zu implementieren und zu nutzen. Besonderes Interesse gilt dabei den sogenannten Large Language Models (LLM), die häufig als Chatbots angeboten werden, aber auch als Grundlage für andere Anwendungen dienen können.
Praxisnahe Fragen und Antworten in der Orientierungshilfe
Die Orientierungshilfe adressiert praxisnah Fragen, die datenschutzrechtlich Verantwortliche bei der Konzeption des Einsatzes, der Auswahl, der Implementierung und der Nutzung von KI-Anwendungen stellen und beantworten müssen. Ob Zweckbestimmung, Transparenzpflichten, Betroffenenrechte oder Richtigkeit von Ergebnissen: Die Orientierungshilfe erörtert wichtige Kriterien entlang der Vorgaben der Datenschutz-Grundverordnung und zeigt Leitlinien für entsprechende Entscheidungen auf.
Inhaltsübersicht der Orientierungshilfe künstlicher Intelligenz
Die Orientierungshilfe ist verständlich aufgebaut und begleitet somit Verantwortliche bei dem Prozess der Integration von künstlicher Intelligenz in das eigene Unternehmen. So muss sich zu Beginn die Frage der Konzeption des Einsatzes und Auswahl der KI-Anwendung (Kapitel1) gestellt werden. Ist dieser Prozess abgeschlossen folgt die Implementierung der Anwendungen (Kapitel2). Dazu müssen die Beschäftigten entsprechend geschützt und sensibilisiert werden. Im dritten und letzten Kapitel der Orientierungshilfe wird nochmal umfassend auf die Nutzung von diesen Anwendungen eingegangen. Dies betrifft folgende Prozesse
Vorsicht bei Eingabe und Ausgabe personenbezogener Daten
Besondere Vorsicht bei besonderen Kategorien personenbezogener Daten
Ergebnisse auf Richtigkeit prüfen
Ergebnisse und Verfahren auf Diskriminierung prüfen
Entwicklung und Zukunft der Orientierungshilfe
Die Orientierungshilfe wurde von der Taskforce KI unter dem Vorsitz des Landesbeauftragten für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz erarbeitet. Sie wird künftig weiterentwickelt und an aktuelle Entwicklungen angepasst. Die Taskforce KI der Datenschutzkonferenz hat bereits 2019 die Hambacher Erklärung zur Künstlichen Intelligenz vorgelegt und befasst sich gegenwärtig mit der datenschutzrechtlichen Prüfung des Dienstes ChatGPT.
Hinweise für Entwickler, Hersteller und Anbieter von KI-Systemen
Die Orientierungshilfe richtet sich mittelbar auch an Entwickler, Hersteller und Anbieter von KI-Systemen. Sie enthält Hinweise zur Auswahl datenschutzkonformer KI-Anwendungen, die auf die Gestaltung der Produkte zurückwirken. Die Entwicklung von KI-Anwendungen und das Training von KI-Modellen sind allerdings nicht Schwerpunkt dieser Orientierungshilfe.
In einem der vorigen Artikel wurde bereits auf ChatGPT eingegangen. Mit dem Microsoft Copilot steht es vielen Officenutzer*innen bereits zu Verfügung. Das Sprachmodell gibt es aktuell in der Version 4.0 und hat einen Wissenstand von Ende 2021. Mit ChatGPT wird anders als mit den bisherigen Suchmaschinen kommuniziert. Damit die Anfragen möglichst korrekt beantwortet werden können, gibt es ein paar nützliche Tipps. Die Arbeitsanweisungen an ChatGPT werden Prompt genannt. Dieser Begriff wird auch nachfolgend verwendet.
Benutze natürliche Sprache in ChatGPT
Mit ChatGPT kann man wie mit einer natürlichen Person kommunizieren. Komplexe Sprachbefehle sind nicht notwendig. Es ist hilfreich, auf Füllwörter und überflüssige Informationen zu verzichten.
Schlechter Prompt: “Ähm, also, ich habe da so eine Frage, weißt du, und ich dachte, du könntest mir vielleicht helfen, weil du ja so schlau bist und so. Also, es geht um Füllwörter und so, und ich frage mich, ob du mir vielleicht sagen könntest, was Füllwörter sind und warum sie manchmal als überflüssig angesehen werden und so. Weißt du, was ich meine?”
Dieser Prompt ist schlecht, weil er viele Füllwörter und redundante Informationen enthält, die die eigentliche Frage verbergen und es schwieriger machen, eine klare und präzise Antwort zu geben.
Guter Prompt:“Kannst du mir erklären, was Füllwörter sind und warum sie oft als überflüssig angesehen werden?”
Dieser Prompt ist gut, weil er klar und präzise ist. Er stellt eine direkte Frage und enthält keine überflüssigen Informationen oder Füllwörter, die die Kommunikation erschweren könnten. Es ermöglicht eine effiziente und genaue Antwort.
Trenne Anforderung vom Inhalt bei ChatGPT
ChatGPT kann bspw. zum Zusammenfassen von Texten verwendet werden. Es ist hilfreich erst die Anforderung und dann getrennt davon den auszuwertenden Inhalt anzugeben. Dazu nutzen wir “““ oder ### zu Beginn und Ende des Inhaltes.
Prompt 1: „Fasse mir den nachfolgenden Text in Formen einer Aufzählung mit den wichtigsten Aussagen zusammen.
Inhalt “““ {text} “““„
Prompt 2: „Entferne aus dem folgenden Text alle Rechtschreibfehler und inhaltlichen Wiederholungen.
Inhalt: “““ {text}““““
Seien Sie in ChatGPT spezifisch, beschreibend und so detailliert wie möglich
Machen Sie gegenüber ChatGPT genaue Angaben zu Kontext, Ergebnis, Länge, Format, Stil usw. Beschreiben Sie den Kontext und das gewünscht Ergebnis möglichst konkret.
Weniger effektiver Prompt: „Schreiben Sie ein Gedicht über OpenAI.“
Besserer Prompt: „Schreiben Sie ein 8 zeiliges inspirierendes Gedicht über ChatGPT im Stile von Johann Wolfgang von Göthe „
Ergebnis:
„Im digitalen Raum, so weit und breit,
ChatGPT leuchtet mit Klarheit.
Mit Wissen tief und Weisheit rein,
Hilft es uns, im Licht zu sein.
Es spricht in Versen, Code und mehr,
Mit jedem Wort, es lehrt uns sehr.
So lasst uns feiern, diese KI so nett,
Unser treuer Helfer, unser ChatGPT.“
Formuliere Sie für Ihr gewünschtes Ergebnis Formatierungsbeispiele
ChatGPT arbeitet besser, wenn bereits in der Anforderung die notwendige Formatierung durch Beispiele erläutert wird.
Weniger effektiver Prompt: „Extrahieren Sie die im folgenden Text genannten Entitäten. Extrahieren Sie die folgenden 4 Entitätstypen: Firmennamen, Personennamen, spezifische Themen und Themen.
Text: {text}“
Besserer Prompt: „Extrahieren Sie die im folgenden Text erwähnten wichtigen Entitäten. Extrahieren Sie zuerst alle Firmennamen, dann alle Personennamen, dann spezifische Themen, die zum Inhalt passen, und schließlich allgemeine übergreifende Themen.
Gewünschtes Format:
Firmennamen: Firma 1, Firma 2, Firma 3
Personennamen: -||-
Spezifische Themen: -||-
Allgemein Themen: -||-
Text: “““{text}“““
Wenn einfache Befehle in ChatGPT nicht das gewünschte Ergebnis liefern
Häufig geben wir ChatGPT eine kurze Arbeitsanweisung. Dieser sogenannte Zero-Shot kann wie folgt aussehen.
Prompt 1: Extrahieren Sie Schlüsselwörter aus dem folgenden Text.
Text: “““{text} “““
Schlüsselwörter:
Es kann jedoch pasieren, dass uns das Ergebnis nicht zufriedenstellt. Dann ist es hilfreich ChatGPT kurze Beispiele zu liefern. Anhand dieser Beispiele wird nun unser Text ausgewertet.
Prompt 2: „Extrahieren Sie Schlüsselwörter aus den entsprechenden Texten unten.
Text 1: Stripe stellt APIs bereit, mit denen Webentwickler die Zahlungsabwicklung in ihre Websites und mobilen Anwendungen integrieren können.
Schlüsselwörter 1: Stripe, Zahlungsabwicklung, APIs, Webentwickler, Websites, mobile Anwendungen
##
Text 2: OpenAI hat hochmoderne Sprachmodelle trainiert, die sehr gut darin sind, Texte zu verstehen und zu generieren. Unsere API bietet Zugriff auf diese Modelle und kann zur Lösung praktisch jeder Aufgabe verwendet werden, die die Verarbeitung von Sprache beinhaltet.
Chat GPT orientiert sich nun an den Vorgaben und wird ein genaueres Ergebnis für euch liefern.
Nutzen Sie positive Prompts statt negativer Prompts
Häufig nutzen wir ChatGPT und sagen in unserem Prompt was nicht getan werden soll. Hilfreicher für ChatGPT ist es, wenn konkret benannt wird was umgesetzt werden soll.
Weniger effektiver Prompt: „Du bist ein Prüfer und fragst mich zum Thema Soziale Arbeit ab. Frag nicht nach den Themen des Beziehungsgestaltung.“
Besserer Prompt: „Du bist ein Prüfer und fragst mich zum Thema Soziale Arbeit ab. Frag mich nach den Themen des SGBll und SGBXll in Deutschland ab“
Mit diesen kleinen Tipps wird es ein Leichtes sein, Ihnen möglichst konkrete Ergebnisse auf Ihre Prompts zu liefern. Bitte berücksichtigen Sie stets die Regeln des Datenschutzes. Personenbezogene Daten und Informationen zu Ihrem Unternehmen haben in ChatGPT nichts zu suchen.
In der heutigen digitalen Ära spielt die Künstliche Intelligenz (KI) eine immer größere Rolle in unserem Alltag. Von personalisierten Empfehlungen auf unseren Smartphones bis hin zu komplexen Algorithmen. Sie sollen uns dabei helfen, Muster in großen Datenmengen zu erkennen – die Möglichkeiten scheinen endlos. Besonders im sozialen Bereich kann die KI dazu beitragen, Prozesse zu optimieren, Ressourcen effizienter zu nutzen und letztlich die Lebensqualität der Menschen zu verbessern. Doch mit der zunehmenden Verbreitung von KI-Technologien wächst auch die Notwendigkeit, den Datenschutz zu gewährleisten. In Deutschland, einem Land, das für seine strengen Datenschutzgesetze bekannt ist, ist dies besonders relevant.
Der Schutz personenbezogener Daten ist nicht nur gesetzlich vorgeschrieben, sondern auch ein grundlegendes Menschenrecht. Spätestens mit der Einführung der DSGVO haben sich alle Unternehmen umfassend mit dem Thema Datenschutz beschäftigt. Im Sozialwesen werden häufig Gesundheitsdaten verarbeitet. Diese Daten bedürfen einen besonderen Schutz und dürfen nie leichtfertig verarbeitet oder Datenverarbeitungsprogrammen zugeführt werden.
In diesem Blogbeitrag werden wir uns mit den Datenschutzaspekten bei der Verwendung von Künstlicher Intelligenz im sozialen Bereich beschäftigen. Wir werden die Herausforderungen und Möglichkeiten diskutieren, die sich aus dem Einsatz von KI ergeben, und dabei insbesondere den deutschen Kontext berücksichtigen. Unser Ziel ist es, ein Bewusstsein für die Bedeutung des Datenschutzes in diesem aufstrebenden Bereich zu schaffen und Lösungsansätze aufzuzeigen. Es gilt die Vorteile der KI nutzen zu können, ohne dabei unsere Privatsphäre zu gefährden.
Grundlagen des Datenschutzes
Die Grundprinzipien des Datenschutzes sind in der Datenschutz-Grundverordnung (DSGVO) festgelegt und umfassen:
Rechtmäßigkeit, Verarbeitung nach Treu und Glauben, Transparenz: Personenbezogene Daten müssen auf rechtmäßige Weise, nach Treu und Glauben und in einer für die betroffene Person nachvollziehbaren Weise verarbeitet werden.
Zweckbindung: Personenbezogene Daten dürfen nur für festgelegte, eindeutige und legitime Zwecke erhoben werden und dürfen nicht in einer mit diesen Zwecken nicht zu vereinbarenden Weise weiterverarbeitet werden.
Datenminimierung: Personenbezogene Daten müssen dem Zweck angemessen und erheblich sowie auf das für die Zwecke der Verarbeitung notwendige Maß beschränkt sein.
Richtigkeit: Personenbezogene Daten müssen sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein.
Speicherbegrenzung: Personenbezogene Daten müssen in einer Form gespeichert werden, die die Identifizierung der betroffenen Personen nur so lange ermöglicht, wie es für die Zwecke, für die sie verarbeitet werden, erforderlich ist.
Integrität und Vertraulichkeit: Personenbezogene Daten müssen auf eine Weise verarbeitet werden, die eine angemessene Sicherheit der personenbezogenen Daten gewährleistet.
In Deutschland gibt es einige besondere Herausforderungen im Zusammenhang mit dem Datenschutz. Seit die DSGVO im Mai 2018 in Kraft getreten ist, wurden Regelungen konkretisiert, erste Urteile gesprochen und die Datenschutzlandschaft durch zusätzliche Gesetze ergänzt. Eine der größten Herausforderungen ist die Verarbeitung riesiger Datenmengen durch Künstliche Intelligenz (KI). Die KI verarbeitet enorme Mengen an Daten – mitunter auch personenbezogener Natur. Das allein bietet bereits ausreichend Zündstoff für die Einhaltung des Datenschutzes bei künstlicher Intelligenz.
Die Standards, die eingehalten werden müssen, sind in der DSGVO und im Bundesdatenschutzgesetz (BDSG) festgelegt. Sie betreffen unter anderem die Rechtmäßigkeit der Datenverarbeitung, die Einhaltung der Grundsätze der Datenminimierung und Zweckbindung, die Sicherheit der Daten und die Rechte der betroffenen Personen.
Anwendung von KI im sozialen Bereich
Bereits in einen der vorigen Beiträge wurde eine kleine Auswahl an Anwendungsbeispielen vorgestellt. Dabei wurde bisher auf die Teilhabe am Arbeitsleben und die Nutzung von Sprachmodellen eingegangen. Es lohnt sich einen Blick zurückzuwerfen, um die nachfolgenden Punkte noch besser in ihrer Bedeutung verstehen zu können.
Datenschutzprobleme bei der Verwendung von KI
Die Gefahren, die sich bei der Verwendung von KI ohne Berücksichtigung von Datenschutzaspekten ergeben, sind vielfältig. Sie reichen von der Beeinträchtigung der Privatsphäre und der Diskriminierung durch voreingenommene Algorithmen bis hin zu Sicherheitsrisiken und dem Missbrauch von Daten. Ein weiteres Risiko besteht darin, dass sensible Informationen in falsche Hände geraten und für betrügerische Zwecke verwendet werden. Daher ist es wichtig, Datenschutzmaßnahmen zu implementieren, um den Schutz personenbezogener Daten zu gewährleisten.
Es gibt verschiedene Beispiele für Datenschutzverletzungen durch KI, typische Szenarien sind:
Unzureichende Sicherheitsvorkehrungen: Bei der Entwicklung von KI-Systemen können fehlende oder unzureichende Sicherheitsvorkehrungen zu Datenschutzverletzungen führen.
Unzureichende Anonymisierung: Wenn personenbezogene Daten durch KI-Systeme verarbeitet werden, kann eine unzureichende Anonymisierung zu Datenschutzproblemen führen.
Fehlerhafte Datenübermittlung: Fehler bei der Datenübermittlung zwischen verschiedenen KI-Systemen können ebenfalls zu Datenschutzverletzungen führen.
Unberechtigter Zugriff: Hacker oder böswillige Dritte können auf KI-Systeme zugreifen und dadurch Datenschutzverletzungen verursachen.
Menschliche Fehler: Unbeabsichtigtes Veröffentlichen von personenbezogenen Daten kann ebenfalls zu Datenschutzverletzungen führen.
Ein spezifisches Beispiel für eine Datenschutzverletzung durch den Einsatz künstlicher Intelligenz ist die Verwendung von Tools, die den Gefühlszustand von Klienten*innen oder Mitarbeiter*innen feststellen. Solche Tools können personenbezogene Daten auf unzulässige Weise verarbeiten und dadurch Datenschutzverletzungen verursachen. Dadurch dass die Verarbeitung der Daten häufig in einer Art „Blackbox“ geschieht, lassen sich Betroffenenrechte (u.a. Recht auf Auskunft, Löschung und Korrektur) nur schwer umsetzen.
Es ist wichtig zu beachten, dass die Datenschutzgesetze, einschließlich der DSGVO und des BDSG, strenge Anforderungen an die Verarbeitung personenbezogener Daten durch KI stellen. Unternehmen, die KI einsetzen, müssen daher sicherstellen, dass sie diese Anforderungen erfüllen, um Datenschutzverletzungen zu vermeiden.
Lösungsansätze
Basierend auf den aufgezeigten Risiken, gibt es eine Reihe von Maßnahmen, um Datenschutz zu gewährleisten.
Sicherheitsvorkehrungen: Unternehmen sollten angemessene Sicherheitsvorkehrungen treffen, um ihre KI-Systeme vor unberechtigtem Zugriff zu schützen.
Anonymisierung von Daten: Bei der Verarbeitung personenbezogener Daten durch KI-Systeme ist eine ausreichende Anonymisierung der Daten wichtig.
Schulung der Mitarbeiter*innen: Mitarbeiter*innen sollten in Bezug auf Datenschutz und den Umgang mit KI-Systemen geschult werden.
Einhaltung von Datenschutzbestimmungen: Unternehmen müssen die geltenden Datenschutzgesetze und -vorschriften einhalten, einschließlich der DSGVO und des BDSG.
Überwachung der Vorschriften: Unternehmen sollten die Entwicklung von Vorschriften und guten Praktiken im Zusammenhang mit dem Einsatz von KI-Tools kontinuierlich überwachen.
Einsatz von KI zur Verbesserung der Datensicherheit: KI kann auch dazu beitragen, Bedrohungen schneller zu erkennen und darauf zu reagieren, sowie sie zu antizipieren und zu verhindern, um die allgemeine Datensicherheit zu verbessern.
Es ist wichtig zu beachten, dass die Einhaltung dieser Maßnahmen eine fortlaufende Aufgabe ist und dass Unternehmen proaktiv sein müssen, um Datenschutzrisiken zu minimieren
Unterstützung durch den Einsatz von Technologien
Es gibt allerdings auch verschiedene Technologien und Methoden, die zur Verbesserung des Datenschutzes bei der Verwendung künstlicher Intelligenz eingesetzt werden können.
So können Datenanonymisierung und Pseudonymisierung dazu beitragen, die Identifizierbarkeit von Daten zu reduzieren. Dazu verändern sie personenbezogene Daten so, dass sie nicht mehr direkt mit einer bestimmten Person in Verbindung gebracht werden können. Durch den Einsatz von differential Privacy können statistische Daten über eine Population gesammelt werden, ohne die Privatsphäre der einzelnen Mitglieder dieser Population zu gefährden. Mit der Methode des federated Learning werden Modelle auf den Geräten der Benutzer*innen trainiert und nur die Modellaktualisierungen an den Server gesendet, nicht die Rohdaten. Eine weitere Technik ist die homomorphe Verschlüsselung. Diese Technik ermöglicht es, Berechnungen auf verschlüsselten Daten durchzuführen, ohne sie zu entschlüsseln. Dies kann dazu beitragen, die Privatsphäre der Daten während der Verarbeitung zu schützen. Und die secure multi-party Computation (SMPC): ermöglicht es mehreren Parteien, gemeinsam Berechnungen auf ihren Daten durchzuführen, ohne die Daten selbst preiszugeben.
Die Auswahl der geeigneten Technologie hängt stets von den spezifischen Anforderungen und dem Kontext des KI-Projekts. Es ist daher ratsam, eine gründliche Risikobewertung durchzuführen und gegebenenfalls Expertenrat einzuholen.
Zukunftsausblick
Auf unterschiedlichen Ebenen gibt es bereits Leitlinien zum Verantwortungsvollen Umgang mit KI. Neben ethischen Aspekten spielen dabei auch stets die datenschutzrechtlichen Bestimmungen eine entscheidende Rolle. So gibt es von der UNESCO eine Empfehlung zur Ethik Künstlicher Intelligenz, speziell zu Bedingungen zur Implementierung in Deutschland. Auch das BMAS hat bereits eine Selbstverpflichtung für den KI-Einsatz erstellt. Entscheidende Eckpunkte sind dabei:
Menschliches Handeln und Aufsicht: KI-Systeme sollten so gestaltet sein, dass sie menschliche Entscheidungen ergänzen und nicht ersetzen. Es sollte immer eine menschliche Aufsicht geben, um sicherzustellen, dass die KI-Systeme wie beabsichtigt funktionieren.
Transparenz: Die Funktionsweise von KI-Systemen sollte transparent sein. Dies bedeutet, dass sowohl die Daten, die zur Schulung der KI verwendet werden, als auch die Algorithmen, die zur Entscheidungsfindung verwendet werden, für die Benutzer*innen verständlich sein sollten.
Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollten so gestaltet sein, dass sie Vielfalt fördern und Diskriminierung vermeiden. Dies bedeutet, dass sie nicht voreingenommen sein sollten und alle Benutzer*innen unabhängig von ihrem Geschlecht, ihrer Rasse, ihrer Religion oder anderen persönlichen Merkmalen fair behandeln sollten.
Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten so gestaltet sein, dass sie das gesellschaftliche und ökologische Wohlergehen fördern. Dies bedeutet, dass sie dazu beitragen sollten, soziale Probleme zu lösen und nicht zur Verschärfung von Ungleichheiten beizutragen.
Datenschutz: KI-Systeme sollten so gestaltet sein, dass sie die Privatsphäre der Benutzer*innen respektieren und schützen. Dies bedeutet, dass sie nur die notwendigen Daten sammeln und verarbeiten sollten und dass sie geeignete Maßnahmen ergreifen sollten, um die Daten vor unbefugtem Zugriff zu schützen.
Verantwortung: Die Entwickler und Betreiber von KI-Systemen sollten die Verantwortung für die Auswirkungen ihrer Systeme übernehmen. Dies bedeutet, dass sie Maßnahmen ergreifen sollten, um negative Auswirkungen zu minimieren und dass sie zur Rechenschaft gezogen werden sollten, wenn ihre Systeme Schaden anrichten.
AI-Act
Der AI-Act ist das erste umfassende Gesetz zur Künstlichen Intelligenz (KI) von einem großen Regulierungsorgan. Dieses Gesetz wurde von der Europäischen Union (EU) vorgeschlagen und zielt darauf ab, die Risiken der KI zu adressieren und Europa in eine führende Rolle auf globaler Ebene zu bringen.
Die wichtigsten Aspekte des AI-Act sind:
Risikokategorien: Das Gesetz teilt KI-Anwendungen in verschiedene Risikogruppen ein.
Anforderungen und Verpflichtungen: Es stellt klare Anforderungen und Verpflichtungen für KI-Entwickler und -Anwender bezüglich spezifischer Anwendungen von KI.
Datenschutz: Es legt besonderen Wert auf den Schutz personenbezogener Daten und die Einhaltung der Datenschutzgesetze.
Der endgültige Entwurf des AI-Act wurde im Jahr 2024 von den 27 EU-Mitgliedsstaaten einstimmig gebilligt. Dieses Gesetz ist wahrscheinlich das Gesetz, das in Kraft treten wird
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Die Teilhabe am Arbeitsleben ist ein grundlegendes Recht, das Menschen mit Beeinträchtigungen ermöglichen soll, ihren Lebensunterhalt durch Arbeit zu verdienen. Doch was, wenn für die Ausübung einer Tätigkeit spezielle Hilfsmittel benötigt werden? Diese können den Unterschied zwischen Teilhabe und Ausschluss aus dem Arbeitsleben bedeuten. Laut Umfrage des IWD sehen 70 Prozent der Menschen mit Beeinträchtigung in der Digitalisierung eine Chance für den Arbeitsmarkt.
Tatsächlich kann digitale Technik viel dazu beitragen, die Nachteile einer Behinderung am Arbeitsplatz zu kompensieren. Barrierefreie Software, Kommunikationswege und Informationen steigern die Beschäftigungschancen gerade für Menschen mit eingeschränktem Hör- oder Sehvermögen.
Unter anderem durch den Einsatz von Datenbrillen und anderen Tools entstehen zunehmend mehr Möglichkeiten zur Teilhabe. Ganz unabhängig einer zusätzliche Assistenzkraft. Nachfolgend werden einige Tools und Projekte beschreiben und verlinkt. Wie immer gilt den Einsatz solcher Hilfsmittel intelligent zu gestalten.
Datenbrillen
Eine intelligente Datenbrille kann, durch das Einblenden von Informationen ins Sichtfeld des Nutzenden, Arbeitsabläufe unterstützen. Sie helfen gehörlosen Mitarbeitende in der Logistik über das sogenannte Pick-by-Vision-Prinzip: Die Brille ist über Bluetooth mit einem Handscanner verbunden und erhält via WLAN Informationen zu neuen Aufträgen. Das Display zeigt dann eindeutige Informationen in Form von Piktogrammen an. So werden Missverständnisse vermieden, die dadurch entstehen, dass sich die Grammatik der Lautsprache und die der Gebärdensprache unterscheiden. Die Piktogramme sind zudem von allen Mitarbeitenden zu verstehen.
Solche Brillen können aber auch Menschen mit autistischen Störungen unterstützen. Sie können Probleme mit ungewohnten Situationen oder mit Effekten haben, die sie als störend empfinden. Die Form der Trigger ist dabei sehr individuell, es kann eine bestimmte Farbe, ein Geräusch wie die Klimaanlage oder etwas anderes sein. Eine entsprechende Brille in Kombination mit einem Headset könnten so angewendet werden, dass sie unerwünschte Effekte für die Person ausfiltern oder ausgleichen, so dass die Betroffenen nicht mehr getriggert werden. Sie würden dann ihre Umgebung vollständig wahrnehmen, nur dass die Elemente verschwinden, durch die sie getriggert werden.
Cobots – kollaborative Roboter
Der Einsatz von Cobots kann Menschen mit Beeinträchtigungen durch angepasste Arbeitsprozesse bessere Chancen für Inklusion, Bildung und Teilhabe eröffnen. Zu den Anwendungsbereichen der Cobots gehören die Durchführung von Qualitätskontrollen direkt am Montage-Arbeitsplatz ebenso, wie die automatisierte Bearbeitung von Produktionsspitzen. Damit sollen im Rahmen der Kooperation Systeme entwickelt werden, die auch Menschen mit Behinderungen oder Menschen ohne sprachliches Ausdrucksvermögen in die Lage versetzen, komplexe Arbeitsaufträge selbstständig umzusetzen. Der kollaborative Roboter fördert dabei die persönliche Entwicklung und das Kompetenzerleben der Mitarbeitenden dadurch, dass er die eigenständige Ausführung komplexer Arbeitsschritte ermöglicht.
Die Zusammenarbeit mit Robotern ändert Aufgaben und Rollen der menschlichen Beschäftigten und kann eine neue psychische Belastung bedeuten. Das kann sich sowohl in Unter- als auch Überforderung äußern. Mit Hilfe einer Smartwatch werden schon heute verschiedene physiologische Daten erhoben, die auf die mentale und physische Belastung hinweisen: Cobots können daraufhin das Verhalten so anpassen, dass sich der Mensch wieder wohler fühlt.
Das europäische Forschungsprojekt MindBot erweitert diesen Ansatz auch auf Möglichkeiten, Menschen mit einer Autismus-Spektrum-Kondition besser in eine Arbeitswelt integrieren zu können. Folgende Aspekte sind Zielsetzung des Projektes
eine Definition organisatorischer Richtlinien für die Cobot unterstützte Gestaltung einer Produktionsumgebung, die die psychische Gesundheit der Arbeitnehmerinnen und Arbeitnehmer fördert.
Die Entwicklung technischer Merkmale für die Gestaltung eines solchen Cobots und die Realisierung des MindBotPrototyps.
Die Definition eines Beschäftigungsmodells für Menschen, bei denen eine Autismus-Spektrum-Störung diagnostiziert wurde und die in kleinen und mittleren Produktionsunternehmen arbeiten, welche Cobots einsetzen.
KI-unterstützte Emotionserkennung
Emotionen begleiten uns stets durch den Alltag. Fehlerhafte Wahrnehmung von Emotionen führen schnell zu Barrieren in der Alltagsbewältigung. Auch hier kann KI mittels Mustererkennung in Sprache, Tonlage und Mimik helfen Emotionen zu erkennen. Auf diese Weise können Menschen unterstützt werden, die aufgrund kognitiver und psychischer Beeinträchtigungen Herausforderungen in kommunikativen und sozialen Situationen haben. Diese Situationen finden sich im Arbeitsleben an verschiedenen Stellen wieder. Beispielsweise bei Prüfungssituationen in der Ausbildung und Vorstellungsgesprächen für Arbeitsplätze über Teammeetings und Feedbackgespräche bis hin zu verschiedenen Kundenkontakten. Gerade auch bedingt durch KI-basierte Automatisierung und Übernahme von standardisierbaren Tätigkeiten werden dabei kommunikative Aufgaben und Kompetenzen in Zukunft oftmals eine noch größere Rolle einnehmen als bisher.
Die Entwicklung eines empathische Trainingsbegleiter für den Bewerbungsprozess (EmpaT) ist dabei ein Projekt, dem u.a. das deutsche Forschungszentrum für Künstliche Intelligenz GmbH Saarbrücken nachgegangen ist.
Das Projekt erlaubt es die sozialen Fähigkeiten in einer virtuellen Lernumgebung zu trainieren. Dabei werdet Techniken zur Erkennung, Modellierung und Generierung von verbalen und nichtverbalen Verhaltensweisen genutzt, um Bewerbungs- und andere Dialogsituationen mit virtuellen Avataren zu simulieren. Ziel ist es, Personen auf emotional schwierige Situationen vorzubereiten, die häufig mit starken negativen Emotionen wie Nervosität oder Ängstlichkeit behaftet sind. Die virtuelle Umgebung von EmpaT bietet den Vorteil, dass sich mit ihr viele denkbare Situationen nachstellen und für Trainingszwecke beliebig oft reproduzieren lassen. Die Evaluation des Projektes ergab, dass der Einsatz des Empat-Trainings die Angst vor Bewerbungsgesprächen reduzieren ließ. Dabei wurden die Teilnehmenden mit einer Kontrollgruppe verglichen, die sich mit klassischen Methoden wie Video und Textinformationen auf das Bewerbungsgespräch vorbereitet hatten.
Audioassistenten
Die OrCam MyEye ist ein Vorlesegerät, dass mithilfe von künstlicher Intelligenz in weniger als einer Sekunde Text erfasst und ihn diesen Text vorliest. Dies ermöglicht es Menschen mit Sehbeeinträchtigungen wieder eigenständig Texte zu lesen und Objekte zu erfassen. Mit nur einem Knopfdruck können Nutzende den Vorlesevorgang starten und den Text in ihrer Umgebung erkunden. Im Arbeitsleben kann das Gerät zum Beispiel für die Teilnahme an Besprechungen, für die Akteneinsicht oder für den Weg zur Arbeit hilfreich sein. Die Kamera erfasst kontinuierlich den Sehraum vor der nutzenden Person in natürlicher Blickrichtung. Sobald die Person mit dem Finger auf einen bestimmten Text, Artikel oder Absatz im Blickfeld zeigt oder alternativ an der Basiseinheit einen Schalter betätigt, wandelt das Gerät die visuellen Informationen in Audioinformationen um, die über den Ohrhörer ausgegeben werden.
Unterstützung von gehörlosen und schwerhörigen Menschen
Für Menschen mit Hörbeeinträchtigungen stehen schon einige Tools zur Verfügung. Neben Apps fürs Smartphone kommen auch in diesem Bereich bereits Datenbrillen zum Einsatz. Mittels augmented reality können Personen mit diesen intelligenten Brillen an Echtzeit-Diskussionen teilnehmen, indem sie die Untertitel oder Untertitel vor ihren Augen lesen. Das Unternehmen XRAI Glass hat diese Brille entwickelt, indem es eine normale Augmented-Reality-Brille (AR) mit einer KI-gesteuerten Smartphone-App kombiniert hat.
Ava ist eine App für das Smartphone. Sie gibt gesprochene Sprache nahezu in Echtzeit schriftlich als Text über das Smartphone oder auf dem Computer wieder. Auf diese Weise können beispielsweise hörgeschädigte Personen einen Vortrag oder ein Gespräch mitverfolgen und direkt daran teilhaben.
Zudem entsteht eine schriftliche Gesprächsaufzeichnung, bei der die unterschiedlichen Gesprächsteilnehmer farblich markiert werden. Zusätzlich können auch einzelne Wörter markiert und Korrekturen vorgenommen werden. Die so entstandenen Protokolle, auch Transkripte genannt, können gespeichert werden.
Barrierefreiheit im Netz – Vorsicht bei Overlaytools bei Webseiten
Barrierefreiheit spielt auch im Netz eine große Rolle. Die moderne Arbeitswelt kommt selten ohne den Einsatz von Webseiten aus. Vor einigen Jahren spielten für die Barrierefreiheit sehbeeinträchtigter Menschen waren Overlaytools eine große Hilfe. Mittlerweile haben aber Browser wie u.a. Firefox viele Möglichkeiten zu individueller Einstellung, sodass von diesen Tools eher abzuraten ist. Grundlage ist jedoch immer der Aufbau einer Barrierefreien Grundstruktur. Ist diese nicht gegeben, helfen auch Tools nur bedingt weiter. Eine kompakte Übersicht zu den Einstellungsmöglichkeiten von Firefox finden sie hier.
Auch der Einsatz von Screenreadern ist möglich. „Ein Screenreader ist eine Software, die Blinden und Sehbehinderten eine alternative Benutzerschnittstelle anstelle des Textmodus oder anstelle einer grafischen Benutzeroberfläche bietet. Ein Screenreader vermittelt die Informationen, die gewöhnlich auf dem Bildschirm ausgegeben werden, mithilfe nicht-visueller Ausgabegeräte. Die Bedienelemente und Texte werden dabei mittels Sprachsynthese akustisch zumeist über eine Soundkarte oder taktil über eine Braillezeile wiedergegeben.“ (Dieser Text wurde aus Wikipedia unter der Lizenz CC BY-SA 4.0 Deed Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International übernommen.
Exoskelette
Exoskelette sind mechanische Gerüste, die eng am Körper getragen werden, um den Körper wie eine Art Stützkorsett zu unterstützen oder ihm aktiv bei der auszuführenden Bewegung zu assistieren. Sie sind eine Art Roboter zum Anziehen und funktionieren wie Prothesen. Sie sind berührungssensibel und individuell programmierbar und können auch als Assistenzsysteme für Menschen mit körperlichen Behinderungen eingesetzt werden. Genutzt werden Exoskelette schon heute in unterschiedlichen Bereichen der Industrie und beim Heben und Tragen in der Pflege.
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Mit der App AirCrumb zu Struktur beim Lernen und im Alltag
AirCrumb wurde vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Die App hilft Teilnehmenden mit einer psychischen Erkrankung u.a. dabei, ihren Alltag besser zu strukturieren, einen Überblick über die täglich anstehenden Aufgaben zu bekommen sowie die tägliche Motivation aufrecht zu erhalten und trägt so zur psychischen Stabilisierung der Teilnehmenden bei.
Fachkräfte pflegen die Inhalte der App ein und bleiben im engen Austausch mit den Teilnehmenden. In der App können eine Reihe von Inhalten hinterlegt werden. Bspw. Kalender und Stunden- bzw. Ausbildungspläne, wichtige Termine wie Therapien oder auch Fragen, die die App automatisiert zu bestimmten Zeitpunkten des Tages stellt. Die App dient somit als technisches Verbindungsstück zwischen Fachkräften und Teilnehmenden. Zusätzlich wird das Lernen im Alltag durch die App mit einem integrierten „Microlearning“ gefördert, Es können fachliche Inhalte in die App eingepflegt werden. Auf diese Weise bietet die App eine Lernunterstützung für die Teilnehmenden und kann dabei helfen, Lernstrategien zu entwickeln sowie die Fokussierung auf die wesentlichen Inhalte zu ermöglichen und Ausbildungsinhalte zu vertiefen.
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Fazit
Mittels unterschiedlicher technischer Unterstützung ist es bereits heute möglich, dass Beeinträchtigungen in der Arbeitswelt reduziert und zum Teil ausgeglichen werden können. Dies sorgt für mehr Gleichheit und Teilhabe. Wie bei allen Technologien bedarf es auch hier hoher Datenschutzstandards und einer strengen ethischen Begleitung. Andernfalls können diese Produkte auch missbräuchlich und stark überwachend genutzt werden. Dies gilt es unter allen Umständen zu vermeiden. Positiv bei dem Einsatz von KI ist der höchst individuelle Einsatz. So können Lernerfahrungen sehr intelligent auf das eigene Niveau angepasst werden.
Aktuelle Fachbeiträge und Quellen
Lippa, B. (2022). Inklusive Arbeitswelt mit Künstlicher Intelligenz. Impulse aus der projektbegleitenden Arbeitsgruppe. Ergebnisbericht des Projekts KI.ASSIST. Bundesverband Deutscher Berufsförderungswerke e. V.
Lippa, B. & Stock, J. (2022). Selbstbestimmte Teilhabe am Arbeitsleben durch KI-gestützte Assistenztechnologien? Überlegungen und Erfahrungen aus dem Projekt KI.ASSIST. Ergebnisbericht des Projekts KI.ASSIST. Bundesverband Deutscher Berufsförderungswerke e. V.
Steil, J. J., Bullinger Hoffmann, A., André, E. et al.: Mit KI zu mehr Teilhabe in der Arbeitswelt. Potenziale, Einsatzmöglichkeiten und Herausforderungen. Whitepaper aus der Plattform Lernende Systeme, München. https://doi.org/10.48669/pls_2023-4
Vorhaben: EmpaT – Empathische Trainingsbegleiter, Teilvorhaben: Überprüfung des psychologischen Realismus und der Effekte auf Bewerbende : Schlussbericht – Teilvorhaben : Bewilligungszeitraum: 1. April 2014 – 30. März 2018 https://doi.org/10.2314/GBV:1066599009
Sprachmodelle sind Algorithmen, die die Struktur der menschlichen Sprache lernen und nutzen. Sie können verwendet werden, um Text zu generieren oder um die Bedeutung von Text zu verstehen. Sprachmodelle sind ein zentraler Bestandteil vieler KI-Anwendungen, darunter maschinelle Übersetzung, Spracherkennung und Chatbots.
Da im Sozialwesen große Mengen an Text erzeugt und verarbeitet werden und eine sehr große Menge an Daten in Form natürlicher Sprache vorliegt, erscheint GPT äußerst relevant. Aufgrund der zunehmenden Rechenleistung und dadurch sinkende Kosten bei der Berechnung, treten die Anwendungen aktuell stärker in den Vordergrund und werden auch für Endanwender interessant.
Es gibt verschiedene Arten von Sprachmodellen, die auf unterschiedlichen Techniken basieren.
N-Gramm-Modelle: Diese Modelle verwenden die Statistik von N-Grammen (Sequenzen von N Wörtern) in einem Text, um die Wahrscheinlichkeit des nächsten Wortes in einer Sequenz zu schätzen. (bspw. Rechtschreibkorrektur, Übersetzer etc.)
Neuronale Netzwerkmodelle: Diese Modelle verwenden neuronale Netzwerke, um die Beziehungen zwischen Wörtern in einem Text zu lernen. Sie können komplexe Muster erkennen und sind in der Lage, kohärenten und grammatikalisch korrekten Text zu generieren. (bspw. Chatbots)
Transformatorbasierte Modelle und Largelanguagemodelle (LLMs): Diese Modelle, wie GPT-4 und BERT, verwenden eine Architektur namens Transformer, die auf selbstbeachtenden Mechanismen basiert. Sie sind sehr leistungsfähig und können eine breite Palette von Sprachaufgaben bewältigen.
Vor- und Nachteile von Sprachmodellen
Sprachmodelle haben sowohl Vor- als auch Nachteile, die bei ihrer Anwendung berücksichtigt werden müssen.
Vorteile von Sprachmodellen:
Verständnis und Generierung von Sprache: Sprachmodelle können menschliche Sprache verstehen und generieren, was sie für viele Anwendungen nützlich macht, wie z.B. maschinelle Übersetzung, Spracherkennung und Chatbots.
Automatisierung: Sie können Aufgaben automatisieren, die normalerweise menschliche Eingriffe erfordern, wie z.B. Kundendienst oder Content-Erstellung.
Skalierbarkeit: Sprachmodelle können auf eine große Menge von Daten angewendet werden und bieten so eine skalierbare Lösung für die Verarbeitung von Sprachdaten.
Nachteile von Sprachmodellen:
Datenabhängigkeit: Die Qualität hängt stark von der Qualität der Daten ab, mit denen sie trainiert wurden. Wenn das Modell mit voreingenommenen oder ungenauen Daten trainiert wurde, kann dies zu ungenauen oder voreingenommenen Ausgaben führen. Es gibt eine Reihe von Initiativen zur Verbesserung der Fairness von KI-Modellen.
Mangel an Kontextverständnis: Obwohl Sprachmodelle menschliche Sprache imitieren können, fehlt ihnen oft das tiefere Verständnis des Kontexts. Das kann zu Ausgaben führen, die in bestimmten Situationen unpassend oder ungenau sind.
Ethische Bedenken: Die Verwendung von Sprachmodellen wirft auch ethische Fragen auf, wie z.B. die potenzielle Verbreitung von Fehlinformationen oder die Verletzung der Privatsphäre.
Es gibt dabei verschiedene Ansätze, die Entwickler*innen verfolgen können, um ihre KI-Modelle fairer zu gestalten:
Datenqualität: Die Qualität und Vielfalt der Trainingsdaten sind entscheidend. Die Daten sollten ausgewogen und repräsentativ für die verschiedenen Gruppen sein, die das Modell verwenden werden.
Bias-Erkennung: Es gibt Tools und Techniken zur Erkennung und Minderung von Bias in KI-Modellen. Durch die Anwendung dieser Tools können Entwickler*innen Bias in ihren Modellen identifizieren und Maßnahmen zur Minderung ergreifen.
Transparenz: Die Transparenz des Modells ist wichtig für die Fairness. Das bedeutet, dass die Entscheidungen des Modells nachvollziehbar und erklärbar sein sollten.
Regelmäßige Überprüfung: KI-Modelle sollten regelmäßig überprüft und aktualisiert werden, um sicherzustellen, dass sie weiterhin fair und genau sind.
Ethikrichtlinien: Die Einhaltung von Ethikrichtlinien und Standards kann dazu beitragen, die Fairness von KI-Modellen zu gewährleisten.
Beteiligung der Stakeholder: Die Einbeziehung verschiedener Stakeholder bei der Entwicklung und Überprüfung von KI-Modellen kann dazu beitragen, verschiedene Perspektiven zu berücksichtigen und die Fairness zu verbessern.
Indem sie diese Praktiken befolgen, können Entwickler*innen dazu beitragen, die Fairness ihrer KI-Modelle zu verbessern und sicherzustellen, dass sie auf eine Weise eingesetzt werden, die ethisch und gerecht ist.
Sicht des Klienten
Die Nutzung kann gleichwohl für Klient*innen attraktiv erscheinen: Neben dem Wegfall einer möglichen Bewertung durch ein menschliches Gegenüber sind NLP-Systeme stets verfügbar, niederschwellig erreichbar, und die Verengung auf einen Problemaspekt oder einen Lösungsansatz ist möglicherweise sogar gewünscht. Auch wenn eine Interaktion mit einem solchen System als quasisoziale Interaktion wahrgenommen werden kann, fehlt die professionelle Reflexion und der Rückbezug auf die von Staub-Bernasconi benannten vier Komponenten von Sozialarbeit. Dazu zählen wissenschaftliches Wissen, ethische Basis, Menschenrechte und -würde sowie Haltung.
Der Einsatz von Chatbots in der psychosozialen Beratung
Chatbots können etwa für den Erstkontakt mit Ratsuchenden, denen Informationen zur Verfügung gestellt werden oder die richtige Ansprechperson empfohlen wird. Woebot wurde von Mediziner*innen, Psycholog*innen und Techniker*innen entwickelt und bietet Unterstützung durch Gespräche, in denen er nach dem aktuellen Befinden fragt, zuhört und Ratschläge gibt. Aufgrund von Datenschutzbestimmungen ist Woebot in Deutschland nicht verfügbar.
Aber wie funktioniert Woebot?
Interaktion über eine App: Woebot interagiert mit Benutzer*innen über eine bereitgestelle APP. Die Benutzer*innen können einfach eine Nachricht an Woebot senden, um die Konversation zu beginnen.
Verwendung von kognitiver Verhaltenstherapie: Woebot nutzt Daten der kognitiven Verhaltenstherapie, um Benutzer*innen dabei zu helfen, ihre mentalen und emotionalen Herausforderungen zu bewältigen.
Automatisierte Antworten: Da Woebot ein automatisiertes Chatprogramm ist, erscheinen seine Antworten in Sekundenschnelle.
Tägliche Stimmungsabfragen: Woebot fragt regelmäßig nach der Stimmung der Benutzer*innen, um langfristig deren Entwicklung zu visualisieren.
Ein Vorteil eines solchen Bots ist die ständige Verfügbarkeit. Es gibt keine Wartezeit. Bots stellen oft nur Ideen zum Umgang mit der eigenen Situation zur Verfügung. Mögliche Vorteile können aber Interaktivität und erlebte Selbstwirksamkeit sein. Nutzer*innen erhalten eine direkte Reaktion.
Es ist wichtig zu beachten, dass Chatbots kein Ersatz für professionelle medizinische oder psychologische Beratung sind. Sie sollen eher als ergänzendes Tool gesehen werden, das rund um die Uhr verfügbar ist. Chatbots sollten nur einen Erstkontakt herstellen und dann an Fachpersonal weiterleiten. Der Fokus der Therapieleistungen sollte beim Fachpersonal bleiben. Andernfalls besteht die Gefahr einer einseitigen Betrachtungsweise der Situation durch die ratsuchende Person selbst, anstelle einer ganzheitlichen Beratung unter Einbezug von Umfeld, Gesellschaft und weiteren Faktoren.
Der Einsatz von Bots muss für Ratsuchende transparent gemacht werden. Sie sollen zu jeder Zeit darüber bewusst sein, dass ein Algorithmus und kein Mensch auf ihre Anfragen antwortet.
Sprachmodelle im Wissensmanagement
Im Sozialwesen verarbeiten die Fachkräfte immer wieder eine Menge von Daten. Diese liegen mittlerweile häufig auch schon digital vor, leider fehlt es häufig noch an der Verknüpfung dieser Daten. Im Bereich der Teilhabe nach SGB IX arbeiten die Fachkräfte auf Basis des ICF. Diese Vorgaben zur Bedarfsermittlung, Zielplanung, Maßnahmenplanung und auch Berichtwesen gelten bundesweit. Hier ergeben sich perspektivisch spannende Möglichkeiten der Verknüpfung der vorliegenden Dokumentation und ICF.
Das Projekt MAEWIN verfolgt das Ziel, die Chancen und Risiken automatisierter Text- und Datenanalyse für evidenz-gestützte Handlungsempfehlungen im Feld des Sozialwesens zu prüfen.
Das Projekt zu computergestützter Analyse sozialwissenschaftlicher Texte mit Hilfe maschineller Lernverfahren kurz CASoTex. Inhaltlich sollte in diesem Projekt untersucht werden, in wie weit Qualitätsmerkmale professioneller psychosozialer Beratung und insbesondere der Variante der Onlineberatung im Handeln der Berater*innen im Beratungsforum nachweisbar sind. Auch wenn das Projekt im Verlauf auf einige Hürden stieß, hat sich gezeigt, dass maschinelle Lernverfahren wichtige Erkenntnisse zur sprachlichen Gestaltung von Beratungstexten liefern können. Systematische Analysen mit diesen Methoden können wertvolle Hinweise zur methodischen Gestaltung von Beratungshandeln liefern.
Sprachmodelle im Qualitätsmanagement
Grundlage der Erbringung von Leistungen sind stets juristische Eckpfeiler. Dabei beziehen sich die Fachkräfte häufig auch nicht nur auf ein Gesetz. Aus der Arbeit in der Eingliederungshilfe in einer besonderen Wohnform kann ich beispielhaft das SGBIX, WBVG, NuWG, NuWGPersVO und NuWGBauVo aufführen. Dazu ergänzend noch der Landesrahmenvertrag zur Ausführung des SGB IX und die dazugehörigen Rahmenleistungsvereinbarungen. Die Vereinbarungen mit den Nutzenden haben dabei stets die aktuellen Rahmenbedingungen zu erfüllen. LLMs können dabei helfen, die eigenen Verträge auf Aktualität zu überprüfen und Widersprüche in der Vertragsgestaltung aufzudecken.
Gleichzeitig können auf Basis einer vorliegenden Anamnese Rechtsansprüche identifiziert werden.
Erste Ansätze liefert unter anderem das Tool Jura Pro auf Basis von GPT-4.
In vielen Arbeitsfeldern muss Dokumentation zeitnah erfolgen. Dabei passiert es im Pflegealltag häufig, dass Fachkräfte sich während des Tages Notizen machen und dann am PC ihres Arbeitsplatzes die gesammelten Daten eingeben. Dadurch entstehen zum Teil doppelte Arbeitsprozesse, die die Zeit mit dem zu unterstützenden Menschen fehlen. Eine Unterstützung bei der zeitnahen Dokumentation kann der Sprachassistenz voize bieten. Dabei können Fachkräfte die Dokumentation frei am Smartphone einsprechen. Das Tool voize erstellt automatisch die richtigen Pflegeberichte, Vitaleinträge und Bewegungsprotokolle und überträgt diese per Schnittstelle in Ihr Dokumentationssystem (bspw. Vivendi PD der Firma Connext) . Ein weiterer Vorteil ist die Steigerung der Qualität in der Dokumentation. Für die Verwendung der APP wird ein Auftragsdaten- verarbeitungsvertrag geschlossen. Dieser ist DSGVO, KDG (Gesetz über den kirchlichen Datenschutz) und DSG-EKD (Datenschutzgesetz der Evangelischen Kirche in Deutschland) konform.
Die medizinische Dokumentation können LLMs durch Übernahme von standardisierten Routineaufgaben erleichtern und effizienter gestalten. Sie können beispielsweise ärztliche Dokumentationen in leicht verständlicher Sprache generieren, was möglicherweise zu einer Erhöhung der Gesundheitskompetenz von Patient*innen und damit auch zu einer gesteigerten Therapieadhärenz beitragen kann. Hier zu nennen sei das Tool Corti. Das selbst lernende System generiert Lösungspotenziale für strukturierte Diagnostik und Befunden. Die KI von Corti analysiert klinische Notizen und identifiziert automatisch die am besten geeigneten Codierungen. Probleme im manuellen Codierungsprozess, wie Unter- und Überkodierung, können so erkannt werden.
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Sprachmodelle in der Arbeit mit älteren Menschen
Der Anteil an älteren Menschen in unserer Gesellschaft wird immer größer. In der Regel äußern die Menschen den Wunsch, möglichste lange in der eigenen Häuslichkeit leben zu können. Unterschiedliche Dienstleistungen durch Pflegedienste und andere Unterstützungsleistungen helfen dabei. Aber auch moderne Techniken können einen wichtigen Beitrag zum Wohnen in der eigenen Häuslichkeit liefern.
Im Bereich der intelligenten Assistenz wird Sprachassistenz u. a. zur Steuerung von Smarthome-Funktionen, für Erinnerungen (Trink- und Medikamentenerinnerung) und zum Aufbau von Kommunikation (Anrufe zu Angehörigen und Kontakten starten, aber auch Hilferufe weiterleiten) eingesetzt. Bei den benötigten Daten um Informationen aus dem höchstpersönlichen Lebensbereich. Es müssen daher sehr hohe Standards bezüglich des Datenschutzes bei der Anwendung erfüllt werden.
Einsatz spezifischer Sprachmodelle in der Kinder- und Jugendhilfe
In Deutschland gibt es dazu bisher noch wenige Daten. Ein Hauptgrund ist sicherlich der Datenschutz und die hohe Sensibilität der Daten. Zwei mögliche Einsatzfelder seien hier dennoch zu benennen. Zum einen geht es um die Gefährdungseinschätzung und zum anderen um die Unterstützung im Erziehungssetting
Einschätzung von Kindeswohlgefährdung: In den USA werden dazu unterschiedliche Systeme (bspw. Kalifornien und Pennsylvania) erprobt. Mit dem Verfahren der „Predictive Analytics“ werden historische Daten mit statistischer Modellierung, Data-Mining-Techniken und maschinellem Lernen kombiniert und auf Muster hin untersucht. Ziel ist es Vorhersagen über zukünftige Ereignisse zu treffen. Internationale Studien haben gezeigt, dass die auf Statistik basierten Einschätzungen zur Kindeswohlgefährdung sehr genau und sogar klinischen Verfahren überlegen sind. Statistik wird in diesen Szenarien als wesentlicher Entscheidungsfaktor identifiziert und kann den Prozess der Urteilsbildung in der Profession der Sozialen Arbeit nachhaltig verändern. Plötzlich konkurriert die Urteilskompetenz der Fachkräfte mit computergestützten Programmen hinsichtlich ihrer Treffsicherheit. Nicht ohne Grund werden solche statistischen Verfahren international allerdings höchst umstritten. Der stärkste Einwand in der Debatte ist, dass sie zu einer Deprofessionalisierung der Sozialen Arbeit sowie einer gleichzeitigen Entmündigung ihrer Adressat*innen und der Gefahr falscher Vorverurteilung führen. Wenn es jedoch darum geht, anstelle eines First-come-first-serve-Ansatzes Priorisierungen in die Fallbearbeitung zu integrieren, kann dies durchaus zu einer erhöhten Wirksamkeit der eigenen Arbeit führen, da die Ressourcen besser eingesetzt werden. Die Verantwortung und Entscheidungskraft müssen jedoch bei den Mitarbeitenden bleiben.
Unterstützungswerkzeuge für die pädagogische Arbeit: Im Forschungsprojekt KiJu Assistenz werden digitale Unterstützungswerkzeuge für die pädagogische Arbeit entwickelt. Dabei soll die Software Fachkräfte bei der gezielten Auswahl individueller pädagogischer Methoden unterstützen. Grundlage ist die in den Einrichtungen geführte Dokumentation. Diese wird zur Entwicklung der Kinder analysiert und bewertet. Die pädagogische Arbeit wird transparenter und effektiver, da Arbeitsprozesse der Fachkräfte klarer strukturiert und besser abgestimmt werden.
Fazit
Der Einsatz unterschiedlicher Sprachmodelle ist schon heute sehr vielfältig und in diesem Beitrag noch längst nicht umfassend erfasst. Bewusst habe ich dabei den Bereich der Teilhabe von Menschen mit Beeinträchtigungen nicht beleuchtet. Dieses Feld wird in einem der nächsten Beiträge vorgestellt. Vor den beleuchteten Perspektiven des Einsatzes von Sprachmodellen ergeben sich sowohl Risiken (u. a. die Gefahr einer modularisierten Herauslösung sozialarbeiterischer Tätigkeit) als auch Chancen (u. a. mehr Teilhabe, niederschwelliger Zugang). Das Sozialwesen wird bei dieser Debatte einen wichtigen Beitrag leisten müssen. Mit dem gezielten Einsatz von digitalen Unterstützungssystemen kann jedoch die Qualität der Arbeit gesteigert werden. Die letzte Instanz bei der Festlegung von Maßnahmen und Entscheidungen muss jedoch der Mensch sein.
Aktuelle Fachbeiträge und Quellen
Jan Clusmann, Fiona R. Kolbinger, Hannah Sophie Muti, Zunamys I. Carrero, Jan-Niklas Eckardt, Narmin Ghaffari Laleh, Chiara Maria Lavinia Loffler, Sophie-Caroline Schwarzkopf, Michaela Unger, Gregory P. Veldhuizen, Sophia J. Wagner, Jakob Nikolas Kather; Die kommende Entwicklung großer Sprachmodelle in der Medizin. Kompass Onkol 1 March 2024; 11 (1): 3–10. https://doi.org/10.1159/000536600
Linnemann, G.A., Löhe, J. & Rottkemper, B. Bedeutung von Künstlicher Intelligenz in der Sozialen Arbeit. Soz Passagen15, 197–211 (2023). https://doi.org/10.1007/s12592-023-00455-7
Weinhardt, Marc. (2022). Algorithmen und professionelles Handeln in der Sozialpädagogik: Das Beispiel Kinderschutz. In: H. Diebel-Fischer, L. Hellmig & M. Tischler: Technik und Verantwortung im Zeitalter der Digitalisierung. (S. 103-122). Rostock: Universität Rostock. 10.18453/rosdok_id00003985.
Zernikow, J., Grassow, L., Gröschel, J. et al. Anwendung von „large language models“ in der Klinik. Innere Medizin 64, 1058–1064 (2023). https://doi.org/10.1007/s00108-023-01600-3
1984 und künstlicher Intelligenz werfen jeweils die gleiche Frage auf. Wie weit darf die Macht und der Einfluss von Technologie über die Menschen gehen. In 1984 wird die Technologie von der Partei eingesetzt, um die Gedanken, Gefühle und Handlungen der Menschen zu manipulieren und zu überwachen. Die Menschen werden dadurch zu willenlosen Sklaven des Systems, die keine eigene Meinung oder Identität haben. Die Partei nutzt auch künstliche Intelligenz, um die Vergangenheit zu verändern und die Wahrheit zu verfälschen
In der heutigen Welt ist künstliche Intelligenz eine wichtige und nützliche Errungenschaft, die viele Bereiche des Lebens verbessern und erleichtern kann. Künstliche Intelligenz kann zum Beispiel helfen, Krankheiten zu heilen, Bildung zu fördern, Umweltprobleme zu lösen oder Kunst zu schaffen. Allerdings birgt künstliche Intelligenz auch Gefahren und Risiken, die nicht ignoriert werden dürfen. Künstliche Intelligenz kann zum Beispiel missbraucht werden, um Menschen auszuspionieren, zu manipulieren oder zu schaden. Künstliche Intelligenz kann auch ethische, soziale oder rechtliche Herausforderungen mit sich bringen, die eine verantwortungsvolle und demokratische Regulierung erfordern.
Daher ist es wichtig, dass wir uns bewusst sind, wie künstliche Intelligenz unser Leben beeinflusst und welche Werte und Ziele wir damit verfolgen wollen. Wir sollten uns auch inspirieren lassen von Werken wie 1984, die uns warnen vor den möglichen negativen Folgen einer unkontrollierten und totalitären Nutzung von Technologie. Wir müssen uns für eine kritische, kreative und humane Nutzung von künstlicher Intelligenz einsetzen, die das Wohl der Menschen und der Gesellschaft fördert.
Offene Briefe warnen vor unreguliertem Einsatz von KI
Es gibt mehrere offene Briefe, die von verschiedenen Gruppen von Experten, Aktivisten oder Künstlern verfasst wurden, um die Risiken und Herausforderungen von künstlicher Intelligenz anzusprechen und eine stärkere Regulierung oder Pausierung der KI-Entwicklung zu fordern. Hier sind einige Beispiele:
Offener Brief: Experten fordern Pausierung der KI-Entwicklung: Dieser Brief wurde von mehr als 1000 KI-Forschern und Technologie-Führungskräften unterzeichnet, darunter Elon Musk & Steve Wozniak. Sie warnen vor den Gefahren von textgenerierender KI wie ChatGPT, die nicht nur die Existenz von Autoren und Übersetzern bedroht, sondern auch die Demokratie und die Wahrheit. Sie fordern eine sechsmonatige Entwicklungspause für alle KI-Projekte, die leistungsstärker als GPT-4 sind, und eine unabhängige Kontrolle und Sicherheitsprotokolle für die KI-Nutzung.
Offener Brief der Literaturübersetzer*innen zur KI-Verordnung der EU: Dieser Brief wurde von den literarischen Übersetzern aus Deutschland, Österreich und der Schweiz veröffentlicht. Sie betrachten textgenerierende KI als Technologie mit systemischem Risiko und halten eine starke Regulierung für unbedingt notwendig. Sie plädieren für eine kritische, kreative und humane Nutzung von Sprache und Kultur und verfassen ein Manifest für menschliche Sprache.
Bei all den Gefahren, ergeben sich auch für das Sozialwesen viele Chancen im Bereich der KI und Digitalisierung. Es bleibt zwingende Voraussetzung ganz klar den Rahmen für KI abzustecken und für Transparenz in der Datenverarbeitung zu sorgen.
Ausblick auf den nächsten Beitrag
Nachdem sich die letzten Beiträge mit den rudimentären Grundlagen der KI beschäftigt haben und kurz die Gefahren in den Blick nahmen, wird es in dem nächsten Beitrag um die ersten Einsatzmöglichkeiten von KI im Sozialwesen gehen. Sprachmodelle als eine Art der generativer KI bieten, angepasst auf die jeweiligen Arbeitsbereiche, spannende Möglichkeiten der digitalen Unterstützung.
In der heutigen Ära der Technologie sind Begriffe wie „Digitalisierung“ und „Künstliche Intelligenz“ (KI) nicht nur in der Geschäftswelt, sondern auch im alltäglichen Gespräch allgegenwärtig. Diese Konzepte haben sich als Eckpfeiler der modernen Gesellschaft etabliert und treiben Innovationen in nahezu jedem Sektor voran. Doch trotz ihrer Popularität und ihres gemeinsamen Ziels, menschliche Fähigkeiten durch Technologie zu erweitern, repräsentieren sie grundlegend unterschiedliche Ideen und Prozesse.
Digitalisierung: Die Transformation ins Digitale
Die Digitalisierung bezieht sich auf den Prozess der Umwandlung von Informationen von einem physischen Format in ein digitales Format. In seiner einfachsten Form bedeutet dies, Papierdokumente in digitale Dateien umzuwandeln. Aber es geht weit darüber hinaus:
Effizienzsteigerung: Digitalisierung ermöglicht es Unternehmen, Prozesse zu automatisieren und zu optimieren, was zu einer erhöhten Effizienz führt.
Verbesserter Zugang zu Informationen: Digitale Daten können leichter gespeichert, durchsucht und analysiert werden.
Förderung der Vernetzung: Digitalisierung erleichtert die globale Vernetzung und Kommunikation.
Künstliche Intelligenz: Die Simulation von Intelligenz
Die Künstliche Intelligenz (KI) ist eine faszinierende und oft missverstandene Disziplin, die die Grenzen dessen, was mit Technologie möglich ist, erweitert. KI versucht, menschliche Intelligenz und Entscheidungsfindung nachzubilden und zu übertreffen und hat Anwendungen in Bereichen von der Gesundheitsversorgung bis hin zur Unterhaltung gefunden. Sie basiert auf komplexen Algorithmen und lernt kontinuierlich aus den Daten, mit denen sie gefüttert wird, was zu immer ausgefeilteren und autonomen Systemen führt.
KI in 2 Minuten erklärt
Hier klicken, um den Inhalt von YouTube anzuzeigen. Erfahre mehr in der Datenschutzerklärung von YouTube.
Was ist eigentlich Künstliche Intelligenz (KI)? Wo kommt KI zum Einsatz? Wie kann uns KI unterstützen?
Die Schnittstelle: Wo sich Digitalisierung und KI treffen
Obwohl Digitalisierung und KI unterschiedlich sind, arbeiten sie oft Hand in Hand:
Digitalisierung schafft Daten: Die durch Digitalisierung gewonnenen Daten dienen als Grundlage für KI-Systeme.
KI nutzt diese Daten: Sie bietet intelligente Lösungen für komplexe Probleme, indem sie Muster in großen Datensätzen erkennt und darauf reagiert.
Die Beziehung zwischen Digitalisierung und KI ist symbiotisch. Während die Digitalisierung den Weg für eine effizientere Datenverwaltung ebnet, nutzt KI diese Daten, um intelligente Lösungen zu bieten. Gemeinsam gestalten sie eine zunehmend vernetzte und intelligente Welt, in der Technologie nicht nur Arbeitsprozesse unterstützt, sondern auch bei der Lösung komplexer globaler Herausforderungen hilft.
Insgesamt sind Digitalisierung und KI zwei Seiten derselben Medaille: Sie treiben den Fortschritt voran und gestalten unsere Zukunft.
KI ist ein faszinierendes Forschungsfeld,
das sich in den letzten Jahren rasant entwickelt hat. Es gibt verschiedene Arten von KI, die jeweils unterschiedliche Anwendungsbereiche und Fähigkeiten haben. Lassen Sie uns einen Überblick über die wichtigsten, aktuell genutzten, KI-Arten geben:
Schwache KI (Narrow AI):
Diese Art von KI ist auf spezifische Aufgaben oder Kontexte spezialisiert.
Auch das Sozialwesen sollte sich mit den Perspektiven, Notwendigkeiten und auch Risiken der Digitalisierung stellen. So breit wie das Handlungsfeld der Arbeit ist, so vielfältig erscheinen auch die Einsatzmöglichkeiten.
Kennzeichnend für das Sozialwesen ist die Arbeit mit dem Menschen, sei es in der Beratung, Betreuung oder akuten Hilfestellung. Damit einher geht häufig das Erfassen von Daten.
Somit ist auch die Arbeit im Sozialwesen häufig auch eine Form der Datenverarbeitung. Aktuelle Programme unterstützen die Fachkräfte bei der Erfassung und Verknüpfung von Daten. Diese Daten aber zielführend zusammenzufassen scheitert in vielen Bereichen noch.
Die Anforderungen an die Dokumentation schreiten schnell voran. Maßgebend für das SGB IX ist hierbei der ICF. Im gesamten Bundesgebiet erfolgt die Teilhabeplanung anhand dieses Konzeptes. Sowohl Bedarfsermittlung, Prozessgestaltung als auch Berichtswesen haben sich an diesem Modell zu orientieren.
Gleichzeitig kann künstliche Intelligenz einen wichtigen Beitrag zum Abbau von Teilhabebarrieren leisten. Neben augmented reality ist der Einsatz von unterschiedlichen Tools wie bspw. ChatGPT denkbar und zum Teil schon Realität.
In diesem Blog will ich die unterschiedlichsten Projekte beleuchten und dabei einen umfassenden Überblick über diesen dynamischen Entwicklungsprozess geben. Um Digitalisierung und KI begreifbar zu machen, werden allgemeine Information zur KI bereitgestellt und unterschiedlichste Einsatzfelder beleuchtet.
Der Blog richtet sich dabei nicht zur an Fachkräfte im Sozialwesen, sondern auch an Menschen, die auf unterschiedlichen Ebenen in ihrer Teilhabe beeinträchtigt sind oder Behinderung erleben.