Eine KI entscheidet über Kreditvergabe – welche Gefahren dabei lauern

Automatisierte Risikobewertung und KI-gestützte Bonitätsprüfungen bei der Kreditvergabe haben in den letzten Jahren stark an Bedeutung gewonnen. Banken und andere Geldhäuser sowie Kreditvermittler setzen vermehrt auf Künstliche Intelligenz (KI) und maschinelles Lernen (ML), um den Prozess der Kreditvergabe effizienter, sicherer und objektiver zu gestalten.

Klingt spannend. Aber sind wir mal ganz ehrlich, ein bisschen seltsam fühlt sich das Ganze schon an. Eine generative KI sagt dir heute in Millisekunden, ob Du dir das neue Auto auf Pump kaufen kannst oder nicht. Vorbei sind die Zeiten, wo man die Frau mit zum „Kreditgespräch“ mitnahm, um den Sparkassenmitarbeiter vielleicht etwas vom Thema ablenken.

Die Älteren unter Ihnen kennen das sicher noch: Am Zahltag gab es lange Schlangen vor der örtlichen Sparkasse (das einzige Kreditinstitut im Ort), denn die Menschen standen an, um ihren Lohn abzuheben. Die Sparkassen-Mitarbeiter kannten die meisten Leute persönlich und deren Lebensumstände. Sie hielten auch gern mal einen Plausch über Enkel, Urlaub und über was man sonst noch so tratscht. Der Rest der Menge wartete geduldig in der Schlange bis sie dran kamen. Und am Zahltag, also um den ersten des Monats lag da richtig viel Geld in den Tresoren. Richtige dicke Bündel physisches Geld, zum Anfassen, bergeweise und ohne Security-Mann in der Schalterhalle. Und zu Hause hatte man dann ein bis sieben Verstecke, wo man die Scheine bunkerte. Hach, war das noch schön, richtig romantisch.

Na klar gab es in größeren Städten auch mal einen Bankräuber, aber der gehörte halt dazu. Schließlich musste Schimanski für seinen „Tatort“ auch ein paar echte Vorlagen aus dem richtigen Leben haben. Übrigens, der Beruf des Bankräubers ist nicht ausgestorben, nur der Arbeitsort und das Equipment haben sich verändert. Also nicht mehr mit Knarre, Skimaske, Brecheisen, Schlagbohrmaschine und TNT bewaffnet, sondern mit eine kleinen unauffälligen Laptop im Straßencafe, einen Cappuccino schlürfend. Nette smarte Typen sind das heute, die wünscht sich jede Schwiegermutter. Nicht so eklige, vernarbte und tätowierte Gangster von einst, vor denen man Angst hatte.

Heute, also sagen wir 50 Jahre später ist das alles Geschichte. Banken arbeiten heute vollelektronisch, Bargeld gibt es nur noch wenig und es ist gerade dabei sich selbst  abzuschaffen. Bankfilialen werden aus „wirtschaftlichen Gründen“ geschlossen und übrig bleibt ein online-Konto auf dem Bildschirm des Computers oder Handys. 

SQUAREVEST - Hier erhalten Sie regelmäßige Informationen zu Immobilien- und Finanzthemen
SQUAREVEST – Hier erhalten Sie regelmäßige Informationen zu Immobilien- und Finanzthemen

Anwendungsbereiche der KI bei der Kreditvergabe

Die Anwendungsmöglichkeiten der künstlichen Intelligenz im Banken- und Finanzbereich sind sehr vielfältig. Das haben Kreditinstitute und Finanzierungspartner auch erkannt und nutzen die neue Technologie der KI-Anwendungen. Die Anwendung von generativen KI-Modelle findet in folgenden Bereichen Anwendung:

Kreditwürdigkeitsprüfung

KI kann eingesetzt werden, um die Kreditwürdigkeit von Antragstellern genauer zu bewerten. Durch die Analyse von personenbezogenen Daten, wie

  • Kreditberichte
  • Ablauf finanzieller Transaktionen
  • historische Zahlungsverläufe

sowie weiterer relevanter Daten kann die Künstliche Intelligenz errechen, wie hoch die Wahrscheinlichkeit der pünktlichen Rückzahlung eines Kredits sein wird. Dies macht es Kreditgebern einfacher, fundiertere Entscheidungen zu Kreditanfragen zu treffen.

Fraud Detection (Betrugserkennung)

Die KI ist bestenes dafür geeignet betrügerische oder manipulierte Aktivitäten im Zusammenhang mit Kreditanträgen zu erkennen. Dabei werden bekannte Verhaltensmuster von Betrügern und Anomalien im Antragsprozess  laufend durch die Künstliche Intelligenz abgeglichen. Verdächtige Aktivitäten sollen so frühzeitig erkannt werden. Im Verdachtsfall meldet die KI den mutmaßlichen Betrugsverdacht dem menschlichen Mitarbeiter.

Risikomanagement

Modelle der Künstliche Intelligenz sollen das finanzielle Risiko von Banken und anderen Kreditgebern bei der Kreditvergabe verringern. Die Kunden (potentielle Kreditnehmer) werden aufgrund ihrer finanziellen Profile und Verhaltensmustern in verschiedene Risikogruppen eingeteilt. Mit den Ergebnissen dieser Berechnungen können Kreditgeber ihre Rahmenbedingungen und Zinssätze bei Krediten individuell anpassen.

Diese Ergebnisse können auch genutzt werden, um Kunden maßgeschneiderte Kreditangebote anzubieten. Nach der Analyse der Kundendaten soll die KI möglichst selbständig Empfehlungen für Kreditprodukte und Konditionen ermitteln, die den individuellen Bedürfnissen und der finanziellen Situationen des Kunden entsprechen.

Kundenservice

Modelle der Künstlichen Intelligenz sollen den Kundenservice im Bereich Kreditvergabe verbessern. Dazu werden Chatbots und virtuelle Assistenten eingesetzt werden. die teilweise die Aufgaben von Kundendienstmitarbeitern wahrnehmen:

  • Kundenanfragen in Echtzeit beantworten
  • Informationen zu Kreditprodukten bereitstellen
  • Unterstützung bei Anträgen
  • einfache Transaktionen durchführen

 Chatbots und virtuelle Assistenten verbessern die Effizienz des Kundenservice, indem sie den Kunden rund um die Uhr Unterstützung anbieten können.

Portfolio-Management

Spezielle Modelle der künstlichen Intelligenz sollen Finanzinstitute, die Kredite in ihrem Portfolio halten, bei der Verwaltung und Optimierung dieser Kredite helfen. Diese Programme sollen laufende und kommende Risiken erkennen, indem die Kredite permanent überwacht werden. Auf der Grundlage dieser Ergebnisse werden Vorschläge zur Portfoliobereinigung oder -diversifizierung berechnet.

KI-Programme können nach Bedarf an veränderte Marktbedingungen angepasst und kontinuierlich optimiert werden
KI-Programme können nach Bedarf an veränderte Marktbedingungen angepasst und kontinuierlich optimiert werden

Vorteile der Kreditvergabe mit KI

Banken haben heute wieder einmal ein Personalproblem. Beispiel Commerzbank: Mit der Übernahme der Dresdner Bank schaffte die Commerzbank rund 10.000 Arbeitsplätze ab, um ihre Kosten zu reduzieren. Heute sieht die Situation etwas anders aus: Durch die Jahrgänge der Babyboomer braucht die Commerzbank bis 2034 20.000 neue Mitarbeiter. Dazu werden bei der Commerzbank schon Prämien von 1.500,00 € für jeden neu angeworbenen Mitarbeiter bezahlt.

In einer Zeit der knappen Personaldecke kommt die Entwicklung und Einführung vom KI im Bankensektor gerade richtig. Im Bereich der Kreditprüfung und -vergabe sollen zunehmend Computer die Arbeit der menschlichen Mitarbeiter übernehmen.

Hier einige Vorteile der KI Kreditvergabe:

Schnelle Bearbeitung: Eine KI kann Kundendaten in Sekundenschnelle auswerten und auf Grundlage der Berechnungen beantragte Kredite schneller bewilligen bzw. ablehnen. Teure Mitarbeiter können so durch die Maschine ersetzt werden. Manuelle Prüfungen sind kaum noch erforderlich,  was die Bearbeitungszeit bei der Kreditvergabe erheblich verkürzt.

Exakte Risikobewertung: Generative KI-Modelle sind in der Lage aus großen Datenmengen Muster zu erkennen und dadurch mögliche Zahlungsausfälle zu vermeiden. Die Kreditentscheidungen werden ausschließlich datenbasiert getroffen, was den Risikofaktor Mensch im Prinzip völlig ausschließt.

Anpassung an veränderten Markt: Die KI-Programme können nach Bedarf an veränderte Marktbedingungen angepasst und kontinuierlich optimiert werden. Das verbleibende Restrisiko liegt bei der Programmierung der individuellen Marker für die Kreditvergabe, da dies noch ein Mensch macht.

Wie bei alle technischen Neuerungen gibt es Licht und Schatten. Es gibt Startschwierigkeiten und Kinderkrankheiten, die es schnell zu beheben gilt. Dabei ist die Sicherheit bei der Anwendung von künstlicher Intelligenz (KI) im Finanzsektor ist ein komplexes Thema mit vielen Unsicherheiten und Risiken

 

Datenqualität und Datenschutz bei der KI Kreditvergabe

KI-gestützte Datenbanken und Rechenzentren verarbeiten riesige Mengen an Daten für den Finanzsektor. Die Einhaltung der geltenden Datenschutzbestimmungen sind besonders in Deutschland entscheidend für die Qualität der beteiligten Banken und Zahlungsdienstleister.  Datenschutzverletzungen können bei solchen Unternehmen zu erheblichen finanziellen Verlusten führen, von riesigen Strafzahlungen und Schadenersatzforderungen bis hin zur Zahlungsunfähigkeit.

Entscheidend für die erfolgreiche Kreditvergabe durch (oder mit) künstlicher Intelligenz ist die Qualität der zu verarbeitenden Daten. Die Daten müssen stets aktualisiert und zielgruppenrelevant angewendet werden. Eine ungenügende Datenqualität kann verheerende Auswirkungen auf das Kreditgeschäft der beteiligten Unternehmen haben. Werden unvollständige oder fehlerhafte Daten verarbeitet, kann dies zu ungenauen Vorhersagen führen. Das Ergebnis wären dann falsche Kreditentscheidungen.

Was hat Facebook oder X (ehem. Twitter) mit ihrer Bonität zu tun?
Was hat Facebook oder X (ehem. Twitter) mit ihrer Bonität zu tun?

Integration von weiteren Datenquellen

Wer heute noch bedenkenlos sein Privatleben auf Facebook oder anderen Social Media-Kanälen teilt, der könnte sich schon morgen wundern, wenn er einen Kredit bei seiner Bank beantragt. Banken ziehen für eine umfassende Riskiobewertung eines Kreditnehmern nicht mehr nur die Daten von Schufa und anderen Auskunfteien. Der Trend geht zu einer „ganzheitlichen“ Bewertung des Kreditnehmers.  So lassen Banken oder andere Kreditgeber zunehmend persönliche Daten ihrer Kunden aus Social-Media-Kanälen oder aus dem Internet der Dinge (IoT) mit in ihre Kreditentscheidung einfließen. Die Banken sind der Meinung, dass sie mit umfangreichen persönlichen Informationen eines Kreditnehmers das Ausfallrisiko besser bewerten können.

Doch was hat Facebook oder X (ehem. Twitter) mit ihrer Bonität zu tun? Die Banken gehen offensichtlich davon aus, dass Kreditnehmer mit einem festen Freundeskreis bessere Rückzahler sind als Personen, die ihre Freunde ab zu zu wechseln. Problematisch könnte es werden, wenn ein Kreditnehmer keine Affinität zu Social-Media hat, weil er einfach mehr telefoniert oder sogar noch richtige Briefe schreibt. Für solche „unsichtbaren“ bis „wenig sichtbaren“ Personen wird die künstliche Inteligenz, die seinen Kreditantrag bearbeitet, wahrscheinlich ein höheres Risiko errechnen.

Schon Johann Wolfgang von Goethe wusste von diesen Problemen. Er schrieb 1797 in seinem Zauberlehrling: „Die ich rief die Geister. Werd ich nun nicht los…“. Er wollte damit sicherlich sagen, dass wir einen verantwortungsbewussten Umgang mit neuen Technologien und vor allem mit persönlichen Daten pflegen sollten.

SQUAREVEST – die Investmentmöglichkeit, wenn Sie Ihr Kapital sicher investieren möchten
SQUAREVEST – die Investmentmöglichkeit, wenn Sie Ihr Kapital sicher investieren möchten

Risiken bei der Kreditvergabe durch KI

Beim Einsatz von künstlicher Intelligenz offenbaren sich nach und nach Probleme, die mit der Datenschutz-Grundverordnung oft nicht vereinbar sind oder in einer Grauzone landen. Diese Probleme tauchen bei sowohl bei kommerziellen AI-Tools auf, als auch bei „hausgemachten“ KI-Anwendungen. Die künstliche Intelligenz ist immer so intelligent wie der Mensch, der sie programmiert hat.

 

1.Problem: Bias

Bias beschreiben einen allgemeinen Verzerrungseffekt. Dieser Effekt tritt auf, wenn bei der Entwicklung und beim Training der KI die menschliche Komponente entscheidet, welche Daten verwendet werden. Menschen handeln nie vorurteilsfrei und sind somit immer subjektiv.

Wenn eine KI generiert wird müssen Millionen von Datensätzen mittels ML (Maschinelles Lernen) eingelesen werden. Mit den eingespeisten Daten kann die KI später arbeiten und aufgrund der ihr vorliegenden Informationen Ähnlichkeiten und Wahrscheinlichkeiten als Ergebnisse auswerfen. Wird der Algorithmus der KI zum Beispiel überwiegend mit Zeitungsartikeln eines bestimmten Verlages trainiert, dann hat die generative KI später ein „Gedächtnis“, welches dem Schreibstil und der politischen Gesinnung der Journalisten des Verlages ähnlich ist. Da eine Berichterstattung in Medien -egal in welchem Format- nie objektiv ist, kann die KI auch nie objektiv sein.

Der Algorithmus erkennt die subjektiven Informationen als Wahrheit (=100%) und übernimmt bei späteren Berechnungen und Vergleichen diese gefühlte Wahrheit. Das kann zu systematischen Verzerrungen der Ergebnisse führen. Die eingespeisten Vorurteile können bei der KI sogar dazu führen, dass sie aus den verzerrten Datensätzen eigene Vorurteile bildet.

Das Ergebnis eines Bias bei der Kreditvergabe könnte sein, dass bestimmte Personen als weniger kreditwürdig angesehen wird. Verwendet man beim Training der KI viele alte Datensätze, könnte dieser Effekt auftreten. Die Zahl der berufstätigen Frauen nahm zwar in den letzten 30 Jahren deutlich zu, aber die generative KI hat Informationen von 1950/60. In diesen Jahren war die Zahl der nicht arbeitenden Hausfrauen deutlich größer als heute. Die Frauen hatten kein Einkommen und benötigten auch keinen Kredit. Vergleicht die KI bei der Kreditvergabe den Arbeiter von 2024 mit der Hausfrau von 1950 wird klar, dass Mann und Frau in diesem Fall unterschiedlich bewertet werden. Eine Frau, die 2024 einen Kredit beantragt (der durch die KI bewilligt werden kann) hätte in diesem Fall eine schlechtere Bonität.

Natürlich ist dieses Beispiel stark überspitzt, aber auch Kleinigkeiten in Summe, die zur späteren Entscheidung führen sollen können in der Realität zu Verzerrungen von Entscheidungen führen.

Halten wir fest, die KI wird niemals wertefrei urteilen und entscheiden, da sie von Menschen entwickelt wurde. Es liegt an den Entwicklern und den (staatlichen) Kontrollsystem, wie verzerrt man KI-Ergebnisse dulden kann und will. Die Entwickler können bei erkannten Bias die Datenbasis entsprechend ändern. Aber nicht alle Bias sind offensichtlich und bleiben imm Verborgenen der KI. Diese „unsichtbaren“ Bias werden als „Unconscious Bias“ bezeichnet und können auf lange Sicht eine echte Gefahr mit sich bringen.

Und mit Sicherheit ist der Datenschutzbeauftragte nicht weit…

 

2.Problem: Black-Box

Das Black-Box tritt auf, wenn die Ergebnisse bzw. die Entscheidungen der KI für den Anwender nicht nachvollziehbar sind. In diesen Fällen können auch Entwickler nicht verfolgen, mit welchen Argumenten die Ki zu diesem Ergebnis kam. Dieses Problem ist schwer zu beheben und kann in der Anwendung zu folgenschweren Konsequenzen führen. Trifft die KI eine Entscheidung, die möglicher Weise falsch ist, kann man die generative KI umtrainieren und die Fehler ausbessern.

Trifft die KI in Bereichen, wie z.B.:

  • in sicherheitsrelevante Bereiche
  • medizinische Diagnose
  • autonomes Fahren
  • Finanzentscheidungen (Kredit, Wertpapiere)

falsche oder nicht nachvollziehbare Entscheidungen, dann bedeutet das oft ein Sicherheitsrisiko. Die Folge ist in der Regel, dass die KI abgeschaltet werden muss um weitere Schäden zu vermeiden. In vielen Fällen kann die Black-Box-Problematik behoben werden, doch haftet diesem Bereich ein Bermuda- Dreick- Mythos an.

 

3.Problem: Halluzinationen

Spricht man von Halluzinationen denkt man zunächst an Menschen, die Dinge wahrnehmen, die in der Realität so nicht vorhanden sind.

Bei einem Computer ist diese Bezeichnung nur bedingt richtig, da der Computer = KI nur Dinge wahrnehmen kann, die er kennt. Errechnet die KI ein völlig falsches Ergebnis, dann bezeichnen Fachleute diesen Effekt als KI-Halluzinationen. Wenn die KI eine Entscheidung treffen muss, ihr aber nicht ausreichend Vergleichsdaten zur Verfügung stehen, wählt die generative KI die wahrscheinlichste Antwort. Diese Antwort kann unter Umständen völlig falsch sein. Ist diese KI eine Nachrichten-App, dann könnte es sein,  dass diese falsche Antwort als Fake-News online geht.

Die Ursachen für eine KI-Halluzinationen liegen in der Regel an der Datenmenge und der Datenqualität, die für das Training der KI verwendet wurde.

Die datenschutzrechtlichen Folgen einer solchen KI-Halluzinationen sind oft nicht abzuschätzen, wenn ein Modell der künstlichen Intelligenz z.B. personenbezogene Daten bei einer KI Kreditvergabe falsch verarbeitet und veröffentlicht.

Cybersecurity

Wie uns die Vergangenheit zeigt gibt es kein Computersystem, welches vor Angriffen sicher ist. Selbst das Pentagon und sehr viele Banken weltweit müssen regelmäßig Datenverluste aus ihren Systemen melden. Die Zahl der Unternehmen, welche nach Infiltrierung mit Ransomware zu Lösegeld-Zahlungen gezwungen wird, nimmt täglich zu. Für das Jahr 2023 wird die offizielle Zahl der bezahlten Lösegelder mit 265 Milliarden US-$ beziffert. Dabei sind noch nicht die unzähligen KMU und Privatpersonen, die ohne Anzeige einfach an die Erpresser bezahlten. Die Dunkelziffer ist hier wohl gigantisch hoch.

Banken sind ein beliebtes Ziel für Cyberangriffe und Datendiebstahl. Der Verlust sensibler Kundendaten ist für Banken immer ein riesiger Skandal, der nicht nur direkte materielle Verluste mit sich bringt. Meist größer ist der Imageschaden, wenn persönliche Daten von Bankkunden öffentlich werden oder der Steuerfahndung zugespielt werde.

Trotz fortschreitender Entwicklung der Sicherheit von KI-basierten Systemen ist es nie ausgeschlossen, dass die Server der Banken zu Opfern von Hackern werden. Somit ist oft das Geld von Kunden weg und personenbezogene Daten der Bank und die der Bankkunden sind für fremde Personen im Internet oder im Darknet zugänglich.

Transparenz und Nachvollziehbarkeit von KI Entscheidungen bei der Kreditvergabe

KI-Modelle treffen heute bei der Kreditvergabe die Entscheidung, ob ein Darlehen gewährt werden kann und zu welchen Konditionen.

Ende. Schwarz oder weiß. Ja oder Nein.

Gehen wir in Gedanken einfach zwei Jahre zurück: Eine Person benötigte für einen Immobilienerwerb eine Finanzierung. Der üblich Weg: Termin mit dem Bankberater wird telefonisch vereinbart, man trifft sich in der Bankfiliale zum Gespräch. Entsprechende Nachweise und Unterlagen hat der Kreditinteressent dabei. Man bespricht sein Investitionsvorhaben mit dem Bankberater, der während des Gespräches fleißig Daten in sein Laptop hämmert. Der Bankberater gibt noch den Hinweis ein Familienmitglied mit in das Haus einziehen zu lassen, um den Kreditrahmen großzügiger gestalten zu können. Nach wenigen Minuten hat der Bankberater auch die aktuelle Schufa gezogen. Kreditantrag fertig, alle unterschreiben. Der Vorgang wurde vom Vorstand oder von der Kreditabteilung auf Plausibilität und Finanzierbarkeit geprüft und verließ mit einer Kreditentscheidung innerhalb weniger Tage den Schreibtisch des Entscheiders in Richtung Kunde.

Dann gab es mehrere Möglichkeiten:

  1. Kredit wurde voll bewilligt
  2. Kredit wurde abgelehnt
  3. Kredit wurde nicht in voller Höhe oder nicht zu den gewünschten Konditionen bewilligt

Mit einer dieser drei Entscheidungen wurde der Bankkunde konfrontiert. Wurde das Darlehen in voller Höhe und zu den beantragten Konditionen bewilligt war die Sache klar. Konnte der Kredit nicht wie gewünscht bewilligt werden machte sich der Kunde wiederum zum Bankberater auf, der in einem weiteren Gespräch die Gründe für die Kreditentscheidung darlegte. Das konnte zum Beispiel ein zu geringes Monatseinkommen sein, mangelhafte Bonität, fehlende Sicherheiten usw. usw.. Manches konnte man nach diesem Gespräch noch anpassen, um den Kredit trotzdem zu bekommen. Manche Häuslebauer mussten ihr Bauvorhaben etwas zusammenstreichen, bis es in den Kreditrahmen reinpasste.

Viele Kreditnehmer waren enttäuscht, wenn der Traum vom eigenen Heim im Sparkassenbüro zunächst zerplatzte. Aber jeder, der die Bank verließ wusste genau, woran es gescheitert ist. Die Kreditnehmer konnten sich auf die nächste Kreditrunde in 3 Jahren vorbereiten, in denen sie sich das benötigte finanzielle Polster geschaffen haben. Oder die Familie wurde mit einbezogen, um zu einem späteren Zeitpunkt trotzdem bauen zu können.

Anders wird es bei der Kreditvergabe durch künstliche Intelligenz:

  • negative Kreditentscheidungen sind für den Kunden nicht transparent und nicht nachvollziehbar
  • Kunde hat wenig Chancen die gewünschten Voraussetzungen für den Kredit zu verbessern
  • Entscheidungen der Bank werden nicht mehr erklärt oder Lösungsvorschläge angeboten
  • durch die fehlende Transparenz der Kreditentscheidung muss der Bankkunde damit leben, dass die KI falsch generiert hat
In Bereichen der Verwaltung, Kommunikation, Datenverarbeitung sowie im Banken- und Versicherungsgewerbe wird die KI viele Jobs überflüssig machen
In Bereichen der Verwaltung, Kommunikation, Datenverarbeitung sowie im Banken- und Versicherungsgewerbe wird die KI viele Jobs überflüssig machen

Drohende Arbeitsplatzverluste durch künstliche Intelligenz

Es ist bereits heute deutlich abzusehen, dass der Einsatz der künstlichen Intelligenz zu Arbeitsplatzverlusten in verschiedenen Bereichen führen wird. Das produzierende Gewerbe und die Dienstleistungsbranche sind davon weniger betroffen. Aber in Bereichen der Verwaltung, Kommunikation, Datenverarbeitung sowie im Banken- und Versicherungsgewerbe wird die KI viele Jobs überflüssig machen. Besonders routinemäßige Aufgaben manuelle Prüfungen und Entscheidungen wird künftig eine künstliche Intelligenz erledigen.

Das bedeutet zum einen die Entlastung der Wirtschaft vom allgegenwärtigem Arbeitskräfteproblem. Es bedeutet aber zum anderen für viele Arbeitnehmer, dass sie sich neue Arbeitsbereiche suchen müssen und ggf. eine gut bezahlte Stelle aufgeben müssen. Für manche Menschen mag dies eine neue Herausforderung sein, aber der Großteil wird mit dem „wegrationalisieren“ Probleme bekommen. Diese Situation gab es vor etwa 200 Jahren schon einmal, als in England, Deutschland und in der Schweiz die Arbeiter die neuen Maschinen zerstörten, weil sie ihre Lebensgrundlage in Gefahr sahen.

 

Kann künstliche Intelligenz den Menschen vollständig ersetzen?

Technischer Fortschritt basiert immer auf der Annahme, dass durch die Innovation bestimmte Prozesse leichter, schneller und kostengünstiger werden. In vielen Fällen hat sich diese Annahme auch bestätigt, denn ein Roboter oder ein KI-gesteuertes System hat in der Regel viele Vorteile gegenüber dem „Mitbewerber Mensch„:

  • arbeitet genauer
  • ist immer konzentriert
  • braucht weder Urlaub noch eine Pause
  • ist nie krank oder schwanger
  • ist immer objektiv und (meist) nicht von äußeren Umständen beeinflusst
  • ist in keiner Gewerkschaft organisiert und verlangt mehr Lohn
  • kann 24/7 ohne Unterbrechung arbeiten

Es gibt aber auch Situationen, in denen der Mensch eingreifen muss um falsche Entscheidungen der Künstlichen Intelligenz zu korrigieren oder anzupassen. Der Mensch kann durch KI nicht ersetzt werden, jedenfalls 2024 noch nicht. Vielleicht ist dies in 20 Jahren möglich, wenn die künstliche Intelligenz bis dahin mit menschlichen Daten gefüttert wurde.

Das eigentliche Problem bei der KI ist, dass sie nur die Daten auswerten und vergleichen kann, die ihr zur Verfügung stehen. Muss die KI zum Beispiel in einer ihr unbekannten Sache eine Entscheidung treffen, dann sucht sie die nächst mögliche Antwort. Diese kann unter Umständen völlig falsch sein. Gibt es im „Wissenschatz der KI“ keine naheliegende Antwort, dann erfindet die KI eine Antwort. Diese wiederum kann auch völlig am Thema vorbeigehen und grundsätzlich falsch sein. Ist eine falsche Antwort in einem Entscheidungsbaum Teil der letzten Entscheidung ist diese mit großer Wahrscheinlichkeit falsch oder teilweise falsch.

Die Gefahr der KI bleibt

Die Erwartungen der Banken sind groß, dass die Zukunft des Bank- und Finanzierungsgeschäftes zum großen Teil mit künstlicher Intelligenz abgewickelt wird. Das spart Kosten, ist effizient und künstliche Intelligenz ist 24/7 einsetzbar. Das ist in dieser Komplexität zum Glück nur Zukunftsmusik. Viele Banken setzen aber schon heute auf vollautomatisierte Abwicklung mit KI zum Beispiel bei Ratenkreditgeschäften.

Im Baufinanzierungsgeschäft und bei der Firmenkreditvergabe muss nach heutigem Recht noch ein Mensch den Antrag prüfen und bearbeiten. Allerdings ist auch schon in diesen Bereichen die Zuhilfenahme von halbautomatischen Bewertungsmethoden möglich und erlaubt. Einiger Unterschied, dass diese KI-Entscheidungen durch menschliche Kreditberater geprüft und abgesegnet werden müssen. Die gesetzliche Grundlage hierfür bildet in Zukunft das europäische KI-Gesetz (AI Act). Nach Angaben der EU-Kommission soll dieses Gesetz bei der Verwendung von KI im europäischen Raum die Grundrechte der Europäischen Union wahren und die Anwendung von KI sicher machen.

Bei generativen KI-Anwendungen, die sensible personenbezogenen Daten oder Geschäftsgeheimnisse verarbeiten, besteht latent die Gefahr, dass diese veröffentlicht werden oder missbräuchlich verwendet werden. Betrachtet man diese KI-Systeme sind KI-Bias, Halluzinationen und Black-Box-Probleme eine wirkliche Bedrohung, wenn es um den Schutz personenbezogener Daten und um Firmeninterna geht.

Besonders die Black-Box-Problematik stellt Datenschützer vor eine große Herausforderung. Werden von der KI personenbezogene Daten verwendet ist nach DSGVO die Einwilligung des Betreffenden erforderlich. Kann man aber in der Black Box nicht nachvollziehen, ob und welche persönlichen Daten zu welchem Zweck verarbeitet werden, wird es mit der Einwilligung schwierig. Man kann davon ausgehen, dass KI und der deutsche Datenschutz in absehbarer Zeit keine Freunde werden.

(HZ)

Diese Beiträge werden Sie auch interessieren:

Künstliche Intelligenz KI – Analyse von Unternehmen

ChatGPT – Werden Journalisten bald arbeitslos?

Chat GPT ist zu ungenau – Ella löst das Problem