Explainable AI:
Vertrauenswürdiger Einsatz Künstlicher Intelligenz in der Kundenservice-Automation

Was man über “Explainable AI” und die Etablierung vertrauenswürdiger KI anhand des AIC4-Kriterienkatalogs wissen muss - allgemein sowie speziell für den Bereich Kundenservice-Automatisierung

Inhaltsverzeichnis:

  • Die wichtigsten Begriffe dieses Artikels, verständlich erklärt
  • Was dich in diesem Artikel erwartet
  • Einleitung
  • Was ist vertrauenswürdige bzw. explainable AI?
  • Gefahren nicht-vertrauenswürdiger KI
  • KI-Anwendungen mithilfe des AI Cloud Service Compliance Criteria Catalogue (AIC4) auf Vertrauenswürdigkeit prüfen
  • Die 7 Handlungsfelder der Auditierung nach AIC4
  • Die AIC4-Auditierung in der Praxis
  • Vorteile vertrauenswürdiger KI im Bereich Customer Service

Die wichtigsten Begriffe dieses Artikels, verständlich erklärt

AIC4
Der Kriterienkatalog AIC4 (Artificial Intelligence Cloud Service Compliance Criteria Catalogue) spezifiziert Mindestanforderungen an die sichere Verwendung von Methoden des maschinellen Lernens in Cloud-Diensten.

Bias
Bias beschreibt einen systematischen Fehler, der entweder durch eine unzureichende Datenlage oder durch Urteilsfehler entstehen kann. Kognitiv verzerrte Machine Learning Modelle können dazu führen, dass bestimmte Personengruppen diskriminiert werden.  

BSI
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) ist die Cyber-Sicherheitsbehörde des Bundes und Gestalter einer sicheren Digitalisierung in Deutschland. Der AIC4-Kriterienkatalog wurde maßgeblich vom BSI mitentwickelt. 

C5
Der Kriterienkatalog C5 (Cloud Computing Compliance Criteria Catalogue) spezifiziert Mindestanforderungen an sicheres Cloud Computing und richtet sich in erster Linie an professionelle Cloud-Anbieter, deren Prüfer und Kunden.

Cognigy.AI
Mit der Conversational AI Plattform Cognigy.AI können Unternehmen intelligente Sprach- und Chatbots in der gesamten Organisation einsetzen und so ihre Kunden- / Mitarbeiterkommunikation an allen Kontaktpunkten automatisieren.

Conversational AI
Conversational AI ist ein Sammelbegriff für Technologien, die in der Lage sind, mit Usern zu kommunizieren. Dazu gehören z. B. Phone- und Chatbots sowie Sprachassistenten. Sie nutzen große Datenmengen, um mithilfe von Methoden des maschinellen Lernens natürliche Sprach- und Texteingaben zu erkennen, zu interpretieren und (in verschiedenen Sprachen) mit Usern zu interagieren.

Explainable AI
Explainable AI ist ein Konzept, das Methoden der Künstlichen Intelligenz, z. B. neuronale Netze oder Deep-Learning-Systeme, erklärbar und nachvollziehbar macht. Es soll u.a. die sog. “Black Box” Problematik lösen, in der nicht eindeutig erklärt werden kann, wie ein Machine Learning Modell zu einer konkreten Entscheidung gelangt. Die Notwendigkeit nach  erklärbarer - und damit vertrauenswürdiger - Künstlicher Intelligenz ist ein wichtiges Handlungsfeld des AIC4-Katalogs. 

NLP
Natural Language Processing (NLP), also die maschinelle Verarbeitung natürlicher Sprache, versetzt Computer in die Lage, menschliche Sprache zu verstehen und zu interpretieren.

NLU
Natural Language Understanding (NLU) ist ein Teilgebiet von NLP, das sich explizit mit dem Verständnis menschlicher Sprache auseinandersetzt. Dabei geht es vor allem um Nuancen wie den Kontext, die Stimmung (sog. “Sentiment”) und die Syntax.

PwC
PricewaterhouseCoopers (PwC) ist Deutschlands führende Wirtschaftsprüfungs- und Beratungsgesellschaft. Das Unternehmen auditiert KI-Dienste im Rahmen des AIC4-Kriterienkatalogs und stellt objektive Prüfberichte zur Verfügung.

Was dich in diesem Artikel erwartet

Dieser Artikel dient Entscheider:innen aus den Bereichen Customer Service und Compliance als umsetzungsorientierter Leitfaden zum Thema “vertrauenswürdige Künstliche Intelligenz” (Trustworthly AI). Er baut auf den Bestrebungen der Europäischen Union auf, ethische Rahmenbedingungen für die Entwicklung und den Einsatz von cloudbasierten KI-Anwendungen zu formulieren und diese mithilfe eines Audits, dem Artificial Intelligence Cloud Services Compliance Criteria Catalogue (AIC4), in der Wirtschaft zu etablieren.

Gerade im Bereich der Kundenservice-Automatisierung spielt das Thema “Explainable AI” - also u.a. die Herstellung von Vertrauenswürdigkeit und Nachvollziehbarkeit - eine besondere Rolle, da ein unmittelbarer Kundendialog mit der KI Anwendung stattfindet. Unternehmen sollten daher Conversational AI Anwendungen wählen, die sämtliche Handlungsfelder des AIC4-Katalogs erfüllen. Nur so kann ein zukunftssicherer Einsatz gewährleistet werden.

In unserem Whitepaper zum Thema “Vertrauenswürdiger Einsatz Künstlicher Intelligenz in der Kundenservice-Automation” zeigen wir detailliert auf, welche konkreten Anforderungen KI-Anwendungen aus dem Bereich Conversational AI für eine AIC4-Auditierung erfüllen müssen. Da Cognigy.AI als eine der ersten KI-Plattformen weltweit den AIC4-Audit erfolgreich durchlaufen hat, geben wir darüber hinaus auch wertvolle Einblicke in die Auditierungspraxis sowie die Tools, die Cognigy.AI zur Verfügung stellt, um die Vertrauenswürdigkeit seiner KI-Anwendungen sicherzustellen.

Das Whitepaper steht zum kostenfreien Download zur Verfügung:

Whitepaper downloaden

Der vorliegende Artikel stellt eine kompakte Zusammenfassung des Whitepapers dar, die sich vor allem mit den ethischen Rahmenbedingungen von vertrauenswürdiger KI (“KI-Ethik”)sowie den 7 Handlungsfeldern des AIC4-Katalogs beschäftigt.

Auch wenn die Auditierung von cloudbasierten KI-Diensten eine noch recht junge Maßnahme zur Steigerung der Erklärbarkeit und Herstellung von Vertrauenswürdigkeit im Bereich der Künstlichen Intelligenz darstellt, ist davon auszugehen, dass sich AIC4, ähnlich wie der Cloud Computing Compliance Criteria Catalogue (C5), zukünftig zu einem global anerkannten Auditierungsstandard entwickelt. Damit wird der AIC4 eine wichtige Quelle für die informatische, ethische und rechtliche Bewertung von KI-Diensten. Unternehmen, die auf entsprechende Technologien setzen, können sich durch den Einsatz vertrauenswürdiger KI im Rahmen des AIC4 also einen Wettbewerbsvorteil im Kampf um die globale Vorreiterstellung als Innovationstreiber in ihrer Branche sichern.

Einleitung

Künstliche Intelligenz rückt mit zunehmender Geschwindigkeit in den Mittelpunkt der Digitalisierung. Sie bildet die Speerspitze des exponentiellen, technologischen Fortschritts und nimmt in Unternehmen und im privaten Umfeld immer mehr Raum ein. Kurzum: Technologien, die auf Methoden der künstlichen Intelligenz zurückgreifen, verändern unsere Gesellschaft grundlegend.

Diese Entwicklung bringt große Chancen mit sich: Das Wertschöpfungspotential in Unternehmen wird sich dadurch erhöhen, dass sich Mitarbeiter voll auf ihre Kernkompetenzen konzentrieren können, während Maschinen enervierende, repetitive Aufgaben übernehmen. Verbraucher erhalten schnelleren und direkteren Zugang zu Informationen oder Dienstleistungen. Sprachbarrieren werden reduziert und Krankheiten früher erkannt.

Welche positiven Effekte der praktische Einsatz Künstlicher Intelligenz bewirken kann, zeigt sich besonders im Teilgebiet der intelligenten, automatisierten Abwicklung von Konversationen, auch “Conversational AI” genannt. Führende Unternehmen wie z. B. die Deutsche Telekom AG, Daimler, Lufthansa, Biontech oder Bosch setzen sogenannte virtuelle Assistenten bereits heute ein, um die Kommunikation mit ihren Kunden zu verbessern und den eigenen Mitarbeitern smarte, lösungsorientierte Helfer an die Seite zu stellen.

Die Automatisierung ist dabei eine Win-Win-Situation für Endverbraucher und Unternehmen. Laut einer Hubspot Studie werden 93 % der Kunden erneut zu Käufern, wenn sie einen schnellen und zuverlässigen Kundenservice erleben. McKinsey hat darüber hinaus beobachtet, dass das Mitarbeiter-Engagement um ca. 20 % steigt, wenn unternehmensseitig eine Verbesserung des Kundenerlebnisses im Servicebereich stattfindet (z. B. durch die Unterstützung durch virtuelle Agenten). Insgesamt haben die positiven Effekte von KI-Technologien also einen überproportional großen Wertschöpfungsfaktor.

Wenn heute die Rede von Künstlicher Intelligenz ist, dann sind häufig die Fortschritte im Bereich Machine Learning und dessen Teilgebiet der neuronalen Netze gemeint. Gemeinsam mit der Zunahme der Leistungsfähigkeit von Computern ermöglichen sie ungeordnete Daten schneller zu durchdringen, zu kontextualisieren und informationelle Mehrwerte für bestimmte Zielgruppen zu erzeugen.

Im Conversational AI Bereich lässt sich das anhand von Natural Language Processing (NLP) und Natural Language Understanding (NLU) operationalisieren. Smarte KI-Assistenten sind dadurch in der Lage, gesprochenes oder geschriebenes Wort auf ihre Absichten (sog. “Intents”) zu analysieren, die Absicht des Anfragenden zu erkennen, dann dem Kontext entsprechende Antworten zu geben und dabei die sprachlichen Feinheiten einer Konversation mit zu berücksichtigen. Die Konversation mit einem Chat- oder Phone-Bot (siehe Info-Kasten) fühlt sich für den Nutzer dadurch wesentlich natürlicher an und erzielt vor allem bei wiederkehrenden, in ihrer Komplexität reduzierten Fragen, schnellere Antworten.


Der Phone-Bot: Telefonsupport der neuen Generation

Viele Konsumenten nutzen bereits die komfortable Möglichkeit, Kontakt zu Unternehmen über Chatbots aufzunehmen. Dabei werden viele Kundenanfragen automatisiert beantwortet. Neu hingegen ist, dass sich diese Technik auch im Kundenservice am Telefon anwenden lässt. Per Cognigy.AI bereitgestellte Phone-Bots können telefonische Anfragen verstehen und mehrsprachige Telefonate führen. Das klappt bereits heute so gut, dass nahezu natürliche Konversationen zwischen Mensch und Bot am Telefon geführt werden können. Der Kunde profitiert von wegfallenden Wartezeiten und einer Verfügbarkeit rund um die Uhr. Dadurch können Kundenanliegen und Fragen jederzeit bearbeitet werden.



Abgesehen von diesem konkreten Beispiel lassen sich die Fortschritte im Bereich der künstlichen Intelligenz auf viele Bereiche unseres Alltags anwenden und ersetzen etablierte, konventionelle Technologien Schritt für Schritt. Die Prognosen der führenden Forschungsinstitute sind eindeutig:

  • Das McKinsey Global Institute prognostiziert, dass bis zum Jahr 2030 eine zusätzliche Wertschöpfung durch KI in Höhe von 13 Billionen US-Dollar entsteht
  • Das globale Bruttoinlandsprodukt wächst durch den KI-Sektor um 1,2 Prozentpunkte. Dieser Zuwachs entspräche dem aller drei vorangegangenen industriellen Revolutionen zusammen.
  • Ein Blick in die Zukunft von PwC besagt, dass fast 60% des erwarteten KI-Zuwachses vor allem durch stärker nutzerorientierte Produkte angeregt wird
  • Die Gesundheitsbranche sowie die Automobilindustrie werden die größten Gewinner des Fortschritts im Bereich Künstliche Intelligenz

Es liegt auf der Hand, dass diese Entwicklung auch zu Spannungen und Reibungsverlusten führt. Ein wesentlicher Faktor dabei sind die verfügbaren Daten, die zur (teilweise selbstständigen) Evolution von KI-Technologien zwingend benötigt werden. Neben der Frage nach dem Eigentum und der Nutzung dieser Daten ergeben sich daraus auch weitreichende ethische, rechtliche Fragen und natürlich Fragen der IT-Sicherheit. Daraus erwächst auch eine Forderung nach “explainable AI”, also erklärbaren KI-Modellen.

Der Einsatz Künstlicher Intelligenz in der direkten Mensch-Maschine-Kommunikation wirft besonders viele Fragestellungen auf: Werden die mitgeteilten Informationen vertraulich und sicher behandelt? Sind die Entscheidungswege des virtuellen Agenten nachvollziehbar (explainable AI)? Werden alle Benutzer gleich behandelt oder ist die KI - bewusst oder unbewusst - von bestimmten kognitiven Verzerrungen (sog. KI-Bias) ihrer Entwickler oder der Trainingsdaten beeinflusst? 

Da der Wandel im Bereich der Künstlichen Intelligenz so schnell voranschreitet, gibt es in den meisten Ländern zu den ethischen und rechtlichen Fragen noch keine eindeutigen Regelungen oder Gesetze. Hinzu kommt, dass KI-Anwendungen häufig auf hochkomplexen Modellen basieren, die Anwender in der Regel nicht nachvollziehen können.

All das führt zu einer großen Nachfrage nach Vertrauenswürdigkeit, Prüfbarkeit und Regulierung von KI-Anwendungen. Nicht nur Verbraucher fordern entsprechende Schritte, auch Unternehmen, die KI in ihren Geschäftsbereichen einsetzen möchten, sind darauf angewiesen, dass Anwendungen den eigenen Qualitätsmaßstäben entsprechen.

Aus diesem Grund beschäftigt sich ein Expertenrat der Europäischen Union seit 2018 mit den (vor allem ethischen) Rahmenbedingungen für vertrauenswürdige Künstliche Intelligenz. Aus diesem Vorstoß heraus haben sich weitere Organisationen wie z. B. die Kompetenzplattform KI.NRW oder das Fraunhofer Institut für intelligente Analyse- und Informationssysteme (IAIS) mit diesem Themenkomplex intensiv auseinandergesetzt. 

Das Bundesministerium für Sicherheit und Informationstechnik (BSI) hat daraufhin im Februar 2021 als erstes Ministerium weltweit einen Kriterienkatalog für KI-basierte Cloud-Dienste (Artificial Intelligence Cloud Services Compliance Criteria Catalogue, AIC4) veröffentlicht, auf dessen Basis eine Auditierung von vertrauenswürdiger KI durch unabhängige Auditoren ermöglicht wird.

Cognigy hat bereits den AIC4 Audit durchlaufen und wurde erfolgreich auditiert. Darüber hinaus durchlaufen auch die ersten Unternehmen diesen Prozess bereits. Darunter auch die Deutsche Telekom AG (DTAG), die durch die Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers (PwC) den Telekom Conversational-AI-Service basierend auf Cognigy.AI nach AIC4 auditieren ließ.

“Wir entwickeln bei DATEV geschäftliche Anwendungen, in denen hochsensible Daten sicher verarbeitet werden müssen. In unserer Conversational AI-Innovationsforschung benötigten wir daher eine Enterprise-Lösung, die Datenschutz, Datensicherheit, Identitätsmanagement etc. nach strengsten Richtlinien ermöglicht und gleichzeitig hochintegrativ und einfach in der Bedienung ist. Vor allem haben wir mit Cognigy.AI tolle Möglichkeiten der Konversationsgestaltung – ganz im Sinne der bestmöglichen User Experience. Es werden all diese Erwartungen mit sehr hohem Reifegrad erfüllt, was auf diesem jungen Markt einzigartig ist."

Dominik Henkel, Projektleiter aus dem DATEV Lab

Was ist vertrauenswürdige bzw. explainable AI?

Die Entwicklung und Wahrnehmung vieler KI-Anwendungen durchläuft einen sogenannten “Hypecycle”, wie ihn z. B. das Marktforschungsunternehmen Gartner skizziert. Zu Beginn löst eine neue Technologie einen Trend aus, der schnell zum Hype werden kann. Während in der Hype-Phase eine Überschätzung der Technologie stattfindet und mögliche Zukunftsszenarien aufgezeigt werden, die sich noch nicht realisieren lassen, folgt nach einiger Zeit eine Rückbesinnung auf die Realität. Meistens zeigt sich bei KI-Lösungen erst nach einem durchlaufenden Hypecycle ob eine Technologie wirklich innovativ, robust genug und adaptiert ist, für eine nachhaltige Weiterentwicklung und Marktakzeptanz. Diese Volatilität führt nicht selten zu gesellschaftlicher Verunsicherung. 

Unternehmen, die KI-Technologien einsetzen, stehen also vor der Herausforderung, die Grenzen des Machbaren mithilfe neuester Technologie zu verschieben und gleichzeitig Vertrauen für die eingesetzten (KI-) Dienste zu schaffen. Dieses Vertrauen ergibt sich unter anderem aus ethischen Rahmenbedingungen, die den Einsatz von KI im gesellschaftlichen Gesamtsystem definieren.   

Aus diesem Spannungsfeld heraus wurde 2018 ein politischer Prozess auf europäischer Ebene initiiert, der Künstliche Intelligenz vor dem Hintergrund ihrer “Vertrauenswürdigkeit” (engl. “Trustworthy AI”) betrachtet. Daraus sind 2019 ethische Richtlinien für vertrauenswürdige KI entstanden. Sie konkretisieren den Begriff “Vertrauenswürdigkeit” in Bezug auf KI-Anwendungen in sieben verschiedenen Handlungsfeldern und können daher als (indirekte) Begriffsdefinition herangezogen werden.

Vertrauenswürdige KI entsteht, wenn 

  • KI-Software-Komponenten durch Menschen nachvollziehbar und kontrollierbar sind
  • eine vor unerwünschten An- und Eingriffen geschützte Umgebung hergestellt wird
  • Grundsätze des Datenschutzes und der Datenverwaltung eingehalten werden
  • Grundrechte beachtet werden und gleichzeitig Vielfalt, Nichtdiskriminierung und Fairness gefördert werden
  • das ökologische und gesellschaftliche Wohlergehen im Mittelpunkt stehen
  • genügend Transparenz hergestellt wird, dass Ergebnisse überprüf- und anpassbar sind und gleichzeitig die nötigen Rechtsmittel zur Verfügung gestellt werden, um den Einsatz zu legitimieren
  • KI-Anwendungen im Rahmen der DSGVO agieren

Warum es so wichtig ist, diese ethischen und technischen Leitplanken zu setzen, verdeutlichen die zahlreichen informatischen, philosophischen und juristischen Herausforderungen, die in Zusammenhang mit KI-Anwendungen entstehen:

Abgrenzung der KI-Komponente

Die KI-Komponente einer Software beeinflusst die Mensch-Maschine-Interaktion in der Regel stärker als andere Teile eines Systems. Ein Beispiel dafür ist der intelligente Chatbot der ARAG Versicherung. Über die Cognigy.AI Enterprise-Plattform ist er mit zahlreichen Backend-Systemen verbunden und ermöglicht so u.a. transaktionale Konversationen. Beispielsweise können ARAG Kunden rund um die Uhr Schadensfälle melden, Versicherungsangebote anfordern und die wichtigsten Erstinformationen zu verschiedenen Versicherungsthemen über den Bot anfordern. Zur Herstellung von Transparenz und Vertrauen ist es daher wichtig, klar identifizieren zu können, welche Entscheidungen die KI-Komponente trifft (“explainable AI”).

Vorbeugung der Black Box Problematik

KI-Komponenten können so komplex werden, dass ihre Funktionsweise bzw. ihre Entscheidungsfindung nicht mehr eindeutig nachvollzogen werden kann. Man spricht dann von “Black Boxes”. Anpassungen ausschließlich auf Basis nach außen sichtbarer Verhaltensweisen der KI vorzunehmen, kann risikobehaftet sein, denn diese Vorgehensweise ist reaktiv und nicht proaktiv. Eine Lösung dafür bieten sogenannte “Erklärmodelle”, die beschreiben, welche Eingaben zu welchen Ergebnissen führen.

Kontrolle selbstlernender Algorithmen im Betrieb

Machine Learning Algorithmen bieten zumeist die Möglichkeit, während des laufenden Betriebs selbstständig zu lernen. Im Bereich der Conversational AI lässt sich das besonders gut veranschaulichen: Ein Chatbot erhält während der Konversation direktes Feedback vom User und kann auf Basis der hinzu gewonnenen Erkenntnisse zukünftig vermeintlich bessere Antworten geben. Die Betonung liegt hier auf “vermeintlich”, denn was der Chatbot lernt, hängt natürlich von der Qualität der Rückmeldung ab. Es besteht die Gefahr, dass Nutzer durch eine Vielzahl fehlgerichteter Informationen absichtlich selbstlernende Algorithmen so manipulieren, dass sie falsche Antworten geben. Eine der herausforderndsten Aufgaben im Bereich der KI ist daher, die Rahmenbedingungen und Leitplanken für selbstlernende Algorithmen zu definieren und zu implementieren.

Eine Ethik der Künstlichen Intelligenz

Da das Feld der Künstlichen Intelligenz ein vergleichbar junges ist, permanent neue Use Cases entstehen und immer mehr Menschen an der Entwicklung, Implementierung und Nutzung beteiligt sind, wächst der Wunsch nach einer Ethik der Künstlichen Intelligenz. Sie soll bewirken, dass alle im KI-Prozess Beteiligten nach bestimmten moralischen Maßstäben gut handeln und Niemanden in seinen Rechten, seiner Autonomie und seiner Freiheit einschränken. Hier sind vor allem die Disziplinen der Philosophie und Soziologie gefragt, die derzeit Vorschläge entwerfen, wie Künstliche Intelligenz in das universelle Wertesystem der Menschen passt.

Zurechnungsfähigkeit Künstlicher Intelligenz

Zur Durchsetzung ethischer und moralischer Leitplanken ist ein rechtlicher Rahmen nötig. Gerade beim Einsatz von Machine Learning Algorithmen ergibt sich die Fragestellung nach der individuellen Haftung bzw. Verantwortung von Personen (“responsible AI”). Durch leichtfertigen Einsatz Künstlicher Intelligenz können individuelle und gesellschaftliche Schäden entstehen. Obwohl KI-Anwendungen von Menschenhand erzeugt werden, findet innerhalb des technologischen Systems zwangsläufig eine Objektivierung des Menschen statt. Nur so kann die Maschine menschliche Handlungen in Form von binären Daten speichern und verwerten. 

Die Wahrung von im Grundgesetz festgeschriebenen Rechten geht einher mit Erklärbarkeit und Nachvollziehbarkeit von KI-Anwendungen. Nur wenn eine lückenlose Aufklärung über die Funktionsweise und Entscheidungswege von KI-Komponenten gegeben ist, lässt sich eine direkte Zurechnungsfähigkeit zu menschlichen Akteuren herstellen.

Im Bereich der Conversational AI steht hinter jeder Mensch-Maschine-Konversation außerdem ein designter Kommunikationsprozess. Je strukturierter und differenzierter dieser durch Menschenhand aufgesetzt wird, umso besser lässt sich im Nachhinein nachvollziehen, wie die KI auf bestimmte Intents reagiert hat. Für die Erstellung von mehrstufigen Kommunikationsprozessen ist es wichtig, die Entscheidungswege und Dialogführung mithilfe eines Konversationseditors zu entwickeln und zu visualisieren.

“Die zunehmende Übertragung von menschlichen Entscheidungen an Algorithmen steigert die Komplexität und Geschwindigkeit des gesellschaftlichen Zusammenlebens. Die künstliche Intelligenz bringt bisher nie da gewesene Herausforderungen für Bürger, Regierungen und Unternehmen aller Länder mit sich. Darin nehmen nicht nur Algorithmen, sondern auch Daten und Übertragungswege eine zentrale Stellung ein.

Es steht außer Frage, dass die künstliche Intelligenz weiterentwickelt wird. Was wir aber tun können und müssen, ist, sie für die Menschheit gewinnbringend zu gestalten”

Waldemar Mach, Produktmarketing Contact Solutions, Telekom Deutschland GmbH

Gefahren nicht-vertrauenswürdiger KI

Eine ehrliche Auseinandersetzung mit Künstlicher Intelligenz beinhaltet auch immer die Betrachtung möglicher Gefahren, die von ihr ausgehen. Nur wenn potentielle Risiken klar benannt werden, lassen sich KI-Anwendungen so gestalten, dass von Anfang an mögliche Gefahren mit bedacht und eliminiert werden können. 

Als einer der weltweit führenden Anbieter von Conversational AI Lösungen ist Cognigy mit seiner KI, made in Germany, schon seit Jahren sensibilisiert für die möglichen Risiken, die von Künstlicher Intelligenz ausgehen. Bereits im Entstehungsprozess der Cognigy.AI Plattform wurden die potentiellen Gefahren kategorisiert und nach ihrer Eintrittswahrscheinlichkeit sowie nach den Auswirkungen bewertet. Diese sog. “Threat Categories” lassen sich aus unserer Erfahrung heraus verallgemeinern und auf viele KI-Dienste anwenden. Folgende KI-Gefahrenkategorien konnten wir identifizieren:

Bewusste, schadhafte Manipulation des KI-Dienstes, z. B.:
  • Adversarial bzw. Backdoor Attacks (Verfälschung von Klassifikationsergebnissen durch bewusste Veränderung der Trainingsdaten)
  • Absichtliche, unzureichende Validierung der ML-Modelle oder bewusstes “Model Poisoning”
  • DDos-Attacken (Angriffe, die die Verfügbarkeit des KI-Dienstes außer Kraft setzen, meist ausgelöst durch eine gezielte Überlastung des Datennetzes)
  • Sog. “Insider Threats”, also die bewusste Manipulation oder Weitergabe von Daten durch Mitarbeiter aus dem eigenen Unternehmen
  • Falsches Labeling der Input-Daten bei Supervised Learning Modellen
  • Nicht autorisierter Zugang zu Datensets, zum Code oder zu Datentransferprozessen durch Dritte

Unbewusste, schadhafte Manipulation des KI-Dienstes, z. B.:
  • Nicht bemerkter Bias, der durch die Urheber der Daten in das System mit eingebracht wurde
  • Unabsichtliche Einschränkung der Output-Qualität von Machine Learning Modellen, z. B. durch Zurückhalten von Daten aus vermeintlichen Geheimhaltungsgründen oder durch eine Fehlbewertung des Values bestimmter Daten
  • Unabsichtliche Verwendung von nicht freigegebenen, personenbezogenen oder sensiblen Daten
  • Reduzierung der Genauigkeit von Trainingsdaten, u.a. durch unbeabsichtigte Eingriffe in Trainingssets oder Durchmischung von Datensets mit großen Qualitätsunterschieden

Rechtliche Gefahren, z. B.:
  • Leichtfertiger Umgang mit / Nichteinhaltung von Datenschutzbestimmungen
  • Offenlegung von sensiblen bzw. personenbezogenen Daten, u.a. durch fehlende, vorgeschriebene Pseudonymisierungs-Mechanismen
  • Profiling von Kunden
  • Vertragsbrüche durch Drittanbieter, mit denen Service-Level-Agreements (SLA) geschlossen wurden um z. B. die Performance des KI-Dienstes sicherzustellen
  • Sog. “Lock-In” Szenario, also die unmittelbare Abhängigkeit von Drittanbietern (z. B. Cloud-Provider, KI-Bibliotheken)

Fehler / Fehlfunktionen, ausgelöst z. B. durch:
  • Lack of expertise in developing AI applications
  • Inaccurate implementation and configuration of machine learning frameworks
  • Inadequate analysis of required resources, vulnerable system infrastructure, or insufficient computing capacity to perform ML model calculations reliably and without errors
  • Lack of data quality checks
  • Missing or incorrect documentation
  • Errors triggered by third-party vendor

Spionage und Hijacking von Daten, z. B, durch:
  • Datendiebstahl während der Übertragung von Daten bzw. durch Entwendung von Datenspeichermedien
  • Offenlegung von Informationen zum Training und zur Konfiguration von ML-Modellen
  • Mangelhafte Verschlüsselung im Rahmen von Datentransfers und -speicherung

Physische Attacken, z. B.:
  • Verursachung von Störungen in Kommunikationsnetzen
  • Angriffe auf Rechenzentren, in denen die entsprechenden Ressourcen für den Betrieb von KI-Diensten vorgehalten werden
  • Gezielte Beschädigung von Hardware, auf der ML-Modelle betrieben werden
Not- und Katastrophenfälle, z. B.:
  • Beeinträchtigung der IT-Infrastruktur, beispielsweise durch Überhitzung, Wasserschäden etc.
  • Naturkatastrophen wie Erdbeben, Sturzfluten, Brände etc.

Mithilfe des AI Cloud Service Compliance Criteria Catalogue (AIC4) - aufgestellt von unabhängigen Dritten (Bundesamt für Sicherheit in der Informationstechnik, BSI) -  ist es erstmals möglich, KI-Anwendungen auf einen Großteil der oben genannten Gefahrenbereiche einheitlich und objektiv zu prüfen und transparent zu bewerten. Wirtschaftsprüfungsgesellschaften wie z. B. PricewaterhouseCoopers (PwC) haben dadurch die Möglichkeit, die Sicherheit und Vertrauenswürdigkeit von KI-Anwendungen offiziell zu testieren. 

Dabei werden die KI-Dienste mit Blick auf den Kriterienkatalog (7 Handlungsfelder) des AIC4 geprüft. Um die “Readyness” des KI-Dienstes vor der Auditierung einzuschätzen, wird in der Regel ein Assessment gemeinsam mit dem Auditierungspartner vorgenommen. Dadurch soll verhindert werden, dass mögliche Risiken erst während der Auditierung bekannt werden, die zu einer sog. “Exception” führen können - also einem klaren Hinweis im Prüfbericht auf ein bestehendes Risiko. Der Auditierungsbericht erlaubt es Kundenunternehmen, die Sicherheit und Vertrauenswürdigkeit des KI-Dienstes zu beurteilen. 

Zusammenfassend lässt sich sagen: Die KI-spezifischen Risiken lassen sich durch adäquate Prozesse und Produktimplementierungen reduzieren. Entscheider sollten daher auf KI-Service-Provider setzen, die ihr Management, ihre Produkte, Funktionen und Dienstleistungen auf den sicheren Betrieb von KI ausrichten und hier entsprechende Investitionen tätigen. 

KI-Anwendungen mithilfe des AI Cloud Service Compliance Criteria Catalogue (AIC4) auf Vertrauenswürdigkeit prüfen

Der AI Cloud Service Compliance Criteria Catalogue (AIC4) ist der weltweit erste konkrete Kriterienkatalog mit operationalisierbaren Anforderungen zur Prüfung von KI-Anwendungen, der von einer offiziellen, staatlichen Institution veröffentlicht wurde. Er enthält KI-spezifische Kriterien, die eine Bewertung der Vertrauenswürdigkeit und Erklärbarkeit (“explainable AI”)  eines KI-Dienstes über seinen gesamten Lebenszyklus hinweg ermöglicht. Die Kriterien legen ein Basisniveau der Sicherheit fest, das durch unabhängige Auditoren zuverlässig bewertet werden kann. 

AIC4 wurde speziell für die Anwendung auf den aktuellen Stand der KI-Technologie entwickelt und bezieht sich auf Cloud-basierte KI-Dienste, die auf Methoden des maschinellen Lernens zurückgreifen sowie Trainingsdaten zur iterativen Verbesserung verwenden. Typische Anwendungsbereiche für die oben genannten Methoden sind Spracherkennungs- und Sprachverarbeitungs-Dienste (NLUs & NLPs), Bildklassifizierungstools, Tools zur Prognose von (wirtschaftlichen) Entwicklungen und Scoring-Modelle. 

In einem Conversational AI System werden eine Reihe spezifischer Funktionen zur Gesprächsführung bereitgestellt, mit denen Nutzer dann eigene virtuelle Assistenten (Chatbots oder Voicebots) inklusive der gewünschten Gesprächsabläufe modellieren und das Sprachverständnis konfigurieren können. Zentraler Bestandteil eines KI-Systems für Conversational AI sind die NLU-Funktionen (Natural Language Understanding). Diese NLU-Funktionen werden verwendet, um Spracheingaben zu verarbeiten und die Absichten dieser Eingaben in mehrsprachigen Umgebungen zu bewerten. Über Plattformen wie Cognigy.AI werden die Nutzer befähigt, das System für die Verbindung der Eingabe- und Ausgabeschnittstellen zu konfigurieren und ihre individuellen NLU-Modelle zu trainieren. Die im Bereich Conversational AI verwendeten NLU-Modelle und die Datenverarbeitung in Machine Learning Modellen macht KI-Anwendungen wie Cognigy.AI besonders gut für AIC4 auditierbar.

Der vom Bundesamt für Sicherheit in der Informationstechnik (BSI) entwickelte AIC4-Kriterienkatalog ist die Reaktion auf Forderungen der Marktteilnehmer, der Bundesregierung und der EU-Kommission zur Herstellung von Transparenz, Nachvollziehbarkeit und Robustheit von KI-Anwendungen. Unternehmen und Anbieter von KI-Lösungen nehmen durch die Auditierung nach AIC4 eine internationale Vorreiterstellung im Rennen um vertrauenswürdige KI-Anwendungen ein. Daraus ergibt sich sowohl im Endkunden-Einsatz, als auch im B2B-Bereich ein Wettbewerbsvorteil.

Die meisten KI-Dienste bieten ihre Produkte - zumindest wahlweise - als Software-as-a-Service (SaaS) an. Auch Cognigy.AI lässt sich als SaaS-Service nutzen. Ein wichtiger Bestandteil des AIC4-Katalogs ist daher der sichere Betrieb von KI-Diensten in der Cloud. Mit dem Kriterienkatalog C5 (Cloud Computing Compliance Criteria Catalogue) des BSI existieren bereits Mindestanforderungen an sicheres Cloud Computing. Daher bauen die AIC4-Kriterien auf dem C5-Katalog auf und spezifizieren diesen konkret im Bereich des AI Lifecycles.

Unternehmen, die KI-Anwendungen wie Cognigy.AI als On-Premise-Lösung und folglich nicht als Cloud-Dienst nutzen, können den AIC4-Katalog dazu nutzen, die Vertrauenswürdigkeit der auf der eigenen oder gemieteten IT-Infrastruktur aufgesetzten KI-Dienste besser zu beurteilen und sich durch akkreditierte Prüfer nach den Katalogvorgaben attestieren zu lassen. Neben mehr Transparenz und Kontrolle können für teilnehmende Unternehmen Wettbewerbsvorteile und positive Image-Effekte entstehen.

Die 7 Handlungsfelder der Auditierung nach AIC4

Mit Stand Mai 2021 umfasst der AIC4 Kriterienkatalog sieben verschiedene Handlungsfelder, die die Mindestanforderungen für die Auditierung von KI-Anwendungen umfassen. Sie werden um die bereits im letzten Abschnitt beschriebenen Voraussetzungen des Cloud Computing Compliance Criteria Catalogue (C5) ergänzt.

Nachfolgend geben wir einen Überblick über die Bedeutung und Ziele der sieben Handlungsfelder. Eine detaillierte Betrachtung - vor allem hinsichtlich der Implikationen jedes einzelnen Handlungsfeldes für die Kundenservice-Automatisierung, finden Sie in unserem kostenfreien Whitepaper. Dort haben wir auch Use Cases aus der Cognigy-Praxis eingefügt, um Ihnen konkrete Maßnahmen zur Erfüllung des jeweiligen AIC4-Handlungsfeldes näher zu bringen. Das Whitepaper können Sie hier downloaden:

 

Cognigy audited for BSI AIC4 for trustworthy AI by PwC

Whitepaper downloaden

 

Handlungsfeld: Sicherheit und Robustheit

In diesem Handlungsfeld geht es um den Schutz der KI-Anwendungen vor Manipulationsversuchen. Dabei spielt die Reaktionsfähigkeit auf sich ständig ändernde System- und Umweltbedingungen eine entscheidende Rolle. Zur Erkennung von böswilligen Attacken müssen seitens des Anbieters der KI-Lösung geeignete Tests entwickelt und regelmäßig durchgeführt werden. Außerdem steht die proaktive Implementierung von Maßnahmen gegen gezielte Angriffe im Fokus. Durch Tests und Maßnahmen soll die KI-Anwendung an Robustheit gewinnen, die verarbeiteten Daten geschützt und die sichere Weiterentwicklung der Algorithmen entlang der Trainingsdaten gewährleistet werden.

Die Erfüllung der Kriterien dieses Handlungsfeldes führen im Bereich Conversational AI u.a. zu einer gesteigerten Integrität von virtuellen Agenten (Phone- und Chatbots), zum Schutz von personenbezogenen Daten, zum Abbau von Manipulationsrisiken und zum sicheren Betrieb von KI-Anwendungen in der Cloud.

Handlungsfeld: Funktionalität und Performanz

Hier geht es darum, die Leistungsfähigkeit eines KI-Dienstes für sein jeweiliges Einsatzgebiet zu definieren und zu messen. Dabei wird auf geeignete Verfahren für das Training der Algorithmen, die Validierung und das Testing von KI-Anwendungen zurückgegriffen. Die im AIC4-Katalog vorgeschlagenen Metriken u.a. zu Genauigkeit, Sensibilität oder Fehlerrate des KI-Services dienen zum einen dazu, den mit Vertragspartnern vereinbarten Funktions- und Performance-Umfang zu prüfen und zum anderen als Basis für zukünftige Leistungsverbesserungen.

Die Erfüllung der Kriterien dieses Handlungsfeldes führen im Bereich Conversational AI zu einer Steigerung an Zuverlässigkeit von virtuellen Agenten im Kundeneinsatz (z. B. während Belastungsspitze), zu einer gesteigerten Qualität und Leistungsfähigkeit der Phone- und Chatbots nach jeder Trainingsiteration sowie zum Einsatz modernster und plausibelster Machine Learning-Modelle.

 

Handlungsfeld: Zuverlässigkeit

Dieses Handlungsfeld soll den zuverlässigen Betrieb des KI-Services in Produktivumgebungen sicherstellen. Darüber hinaus müssen Prozesse etabliert werden, um  Fehler und Ausfälle des Dienstes zu untersuchen. Dazu gehören z. B. die Bereitstellung angemessener Ressourcen für die Aufrechterhaltung der KI, Logging-Verfahren, Backups und Prozesse zur Fehlerbehandlung. Hierzu wird teilweise auf die Kriterien des C5-Katalogs zurückgegriffen.

Die Erfüllung der Kriterien dieses Handlungsfeldes führen im Bereich Conversational AI zu einer besseren Erreichbarkeit von virtuellen Agenten (24/7), zur kontinuierlichen Wartung von Conversational AI Plattformen sowie zu einer engmaschigen Überwachung der KI-Dienste.

 

Handlungsfeld: Datenqualität

Hier geht es darum, dass Daten, die zur Entwicklung der ML-Modelle, dem Intent-Training und zum Betrieb des KI-Dienstes genutzt werden, bestimmte Qualitätsstandards erfüllen müssen. Beispielsweise sollten Trainingsdaten von angemessener Qualität und Quantität sein, um die KI für den entsprechenden Einsatzbereich ausreichend trainieren zu können. Darüber hinaus müssen Trainingsdaten leicht zugänglich und konsistent in ihrer Struktur sein. Das hat maßgeblichen Einfluss auf die Erklärbarkeit von KI-Modellen (“explainable AI”).

Die Erfüllung der Kriterien dieses Handlungsfeldes führen im Bereich Conversational AI zu besseren virtuellen Agenten, da die Qualität der Trainingsdaten für die Qualität der Phone- und Chatbots ausschlaggebend ist. Darüber hinaus werden Prozesse zur Datenbeschaffung, Qualifizierung und Evaluierung eingehalten und mögliche Vorurteile  (sog. “KI-Bias”) in den ML-Modellen vermieden.  

Handlungsfeld: Datenmanagement

Dieses Handlungsfeld schafft die Rahmenbedingungen für die strukturierte Erfassung von Daten und die Verwendung von Daten aus vertrauenswürdigen Quellen. Der KI-Dienst muss außerdem ein Framework für die Entwicklung und den Betrieb seines Services unter Verwendung von Trainingsdaten etablieren. Dazu gehört z. B. auch der adäquate Schutz der Trainingsdaten vor Zugriff durch nicht autorisierte Personen. Der Einsatz der Trainingsdaten muss außerdem zweckgebunden erfolgen und dokumentiert werden.

Die Erfüllung der Kriterien dieses Handlungsfeldes führen im Bereich Conversational AI zu einer besseren Dokumentation und mehr Transparenz in den Trainingsdaten, zu einer rechtlichen Absicherung, da nur Daten eingesetzt werden dürfen, die auch rechtlichen Vorschriften genügen und zugelassen sind sowie zur Etablierung von granularen Zugriffsrechten im KI-System.

Handlungsfeld: Erklärbarkeit

Die von Algorithmen im Rahmen eines KI-Dienstes getroffenen Entscheidungen müssen, wenn nötig, erklärbar sein. Zur Beurteilung müssen Personen mit entsprechender Expertise herangezogen und geeignete Techniken verwendet werden. Erklärbar muss unter anderem der Zweck und die Funktionsweise des eingesetzten Machine Learning Modells sein. Diese Informationen müssen dokumentiert und so aufbereitet werden, dass eine Bewertung durch externe Parteien, z. B.  Fach- und Branchenexperten, aber auch Service-Nutzer möglich ist. Nur wenn diese Maßnahmen erfolgen, wird eine KI zur “explainable AI”.

Die Erfüllung der Kriterien dieses Handlungsfeldes führen im Bereich Conversational AI zu einer besseren Nachvollziehbarkeit der Entscheidungen von virtuellen Agenten. Außerdem wird damit eine Möglichkeit geschaffen, ML-Modelle extern überprüfen zu lassen. Das beschleunigt den Einsatz von Conversational AI Technologien, weil Vorbehalte im Unternehmen schneller abgebaut werden.

 

Handlungsfeld: Bias

In diesem Handlungsfeld soll die mögliche Voreingenommenheit (engl. “Bias”) des KI-Dienstes identifiziert werden. Dabei geht es z. B. um direkten und indirekten Bias ebenso wie um systemischen und statistischen Bias. Der AIC4 ist nicht explizit darauf ausgelegt, Vorurteile im Code oder in den Trainingsdaten aus ethischer Sicht zu beurteilen. Vielmehr geht es darum, mögliche Schwachstellen durch die Anwendung mathematischer Verfahren (z. B. “Adversarial Debiasing”, “Prejudice Remover” etc.) aufzudecken und damit dem Nutzer des KI-Dienstes transparent zu machen. Eine Beurteilung muss dann durch den Nutzer selbst vorgenommen werden. Der KI-Dienst-Betreiber wird im Rahmen der AIC4-Auditierung außerdem dazu angehalten, festgestellten KI-Bias mithilfe von spezifischen Algorithmen zu reduzieren.

Die Erfüllung der Kriterien dieses Handlungsfeldes führen im Bereich Conversational AI zu einer Reduktion bzw. Eliminierung von Bias (z. B. Diskriminierung), Gleichbehandlung von Usern und Intents - unabhängig von Herkunft oder Dialekt und zu einer faktisch-rationalen Kommunikation zwischen Mensch und virtuellem Agent.

“Der AIC4 basiert auf dem weltweit anerkannten Cloud Computing Compliance Criteria Catalogue (C5) des BSI. Die Verzahnung ermöglicht es, sich in Audits nach dem AIC4 im Wesentlichen auf die KI-spezifischen Aspekte zu fokussieren und an wichtigen Stellen, bspw. des Betriebs der KI Lösung, bestehende Prozesse und Kontrollen aus dem C5 Umfeld in Bezug zu nehmen.”

Hendrik Reese, Director, Artificial Intelligence, PwC Germany

Die AIC4-Auditierung in der Praxis

Die gelebte Auditierungspraxis ist ein wichtiger Faktor für ein Engagement zum Einsatz vertrauenswürdiger KI-Anwendungen. Nachfolgend geben wir einen kurzen Einblick in die Auditierung von KI-Diensten anhand des Beispiels Cognigy.AI.

Weitere, wertvolle Insights - unter anderem geschildert vom Auditierungspartner PwC (PriceWaterhouseCooper) finden Sie im kostenfreien Cognigy Whitepaper:

Whitepaper downloaden

Einleitend lässt sich festhalten, dass ein AIC4-Audit für eine große Bandbreite an potentiellen Use-Cases durchführbar ist. Schon erste Schritte im Bereich der Künstlichen Intelligenz und punktuell eingesetzte KI-Dienste können mit einem AIC4-Audit begleitet und damit von Anfang im Unternehmen unter Berücksichtigung der Compliance-Richtlinien  integriert werden. 

Ein Beispiel hierfür wäre die reine Nutzung eines bereits trainierten KI-Modells, wie in Bilderkennungs-Software oder in Programmen zur automatisierten Text- und Schrifterkennung (OCR) eingesetzt. Gleichermaßen bietet AIC4 aber auch die Möglichkeit, gesamte KI-Workbenches wie die Cognigy.AI Plattform zu auditieren. System-bedingt ergibt sich dort die zusätzliche Herausforderung, dass nicht nur der KI-Provider AIC4-konform handeln muss, sondern auch die Benutzer, da sie durch die Bereitstellung von Informationen und Daten mithilfe der Plattform Wertschöpfung betreiben.

Cognigy.AI ist hierfür ein idealer Case: Die Conversational AI Plattform stellt sämtliche KI-Modelle, Werkzeuge und Schnittstellen zur Entwicklung intelligenter, vollautomatisierter Sprach- und Chatbots zur Verfügung und fungiert damit als Basisintelligenz. Den Kundenmehrwert generiert jedoch der Anwender selbst, indem er mithilfe des Konversationseditors natürlichsprachliche Dialoge gestaltet und so das Verhalten der KI maßgeblich beeinflusst (“responsible AI”). Ein AIC4-Audit berücksichtigt diesen Anwendungsfall und ermöglicht damit eine ganzheitliche Prüfung der im Rahmen der KI-Automatisierung eingesetzten Ressourcen.

Aufgrund des breiten Anwendungsspektrums ist aktuell (Stand Mai 2021) eine große Nachfrage nach AIC4-Audits bei Unternehmen unterschiedlichster Größe entstanden. Sowohl bekannte Telekommunikations-Provider wie die Deutsche Telekom, als auch ambitionierte Startups aus verschiedenen Branchen äußern ein starkes Interesse am Audit oder sind bereits im Auditierungsprozess. Als eine der ersten KI-Plattformen hat Cognigy die KI-basierten Anwendungen der Cognigy.AI- Plattform erfolgreich auditieren lassen.

Der Auditierungsprozess lässt sich in zwei Phasen aufteilen: Phase 1 beinhaltet die Prüfung des Designs und der Implementierung von KI-Diensten anhand der AIC4-Handlungsfelder. Phase 2 zielt auf die Prüfung der Wirksamkeit von entsprechenden AIC4-konformen Prozessen ab und wird einige Monate nach Abschluss der 1. Phase durchgeführt. Das Ergebnis eines AIC4-Audits ist ein umfangreicher Bericht, der sowohl den Prüfgegenstand, als auch die durchgeführten Prüfaktivitäten und deren Ergebnis / Beurteilung beinhaltet.

Ein AIC4-Audit wird nach den Standards des ISAE 3000 durchgeführt und verlangt daher eine Wirtschaftsprüfungsgesellschaft als auditierende Institution.

Vorteile vertrauenswürdiger KI im Bereich Customer Service

Neben der generellen Harmonisierung des deutschen - und zukünftig ggf. auch des internationalen - KI-Marktes schafft die AIC4-Auditierung die Grundlagen für eine Gesetzgebung bzw. KI-Regulierung auf EU-Ebene. Unternehmen, die sich frühzeitig mit den AIC4-Standards beschäftigen und ihre KI-Service-Provider dazu anhalten, sich auditieren zu lassen, können sich jetzt schon vor möglichen juristischen Konsequenzen schützen. Das gilt selbstverständlich nicht nur für KI-Dienste, die im Bereich Conversational AI eingesetzt werden.

In der Automation des Kundenservices ergeben sich im Rahmen einer AIC4-Auditierung zahlreiche konkrete Vorteile, die direkte und indirekte Auswirkungen auf den Unternehmenserfolg haben können. Die nachfolgende Aufstellung zeigt die wichtigsten Vorteile auf:

The key benefits of using AIC4-audited AI applications

 

Trust als Image-Boost

Zukünftig wird das Label “AIC4-auditiert” zu einem Qualitätsmerkmal für KI-Dienste

 

Positive Beeinflussung der User Experience

AIC4 etabliert Standards im Bereich Performanz, Zuverlässigkeit, Datenqualität und KI-Bias.

 

Der ethischen Verantwortung gerecht werden

AIC4 basiert auf den Ethik-Richtlinien der EU zum Einsatz Künstlicher Intelligenz.

 

Gezieltere Auswahl des richtigen Contact Center Partners

AIC4 reduziert und vereinfacht die Auswahl geeigneter externer Dienstleister im Bereich Contact Center und schafft so einen exzellenten Auswahlprozess. 

 

Individuelle Anpassung an die Unternehmensbedürfnisse

Conversational AI Service-Provider wie Cognigy sind durch AIC4 dazu verpflichtet, die Funktionsweisen von eingesetzten ML-Modellen teilweise offenzulegen - der Anwender hat dadurch direkten Einfluss auf den Output und kann so den KI-Dienst nach seinen Bedürfnissen anpassen

 

Compliance und sicherer Einsatz

Da einige Handlungsfelder der AIC4-Auditierung auf dem Cloud Computing Compliance Controls Catalog (C5) basieren, fügen sich auditierte KI-Dienste wie Cognigy.AI nahtlos in die Compliance-Richtlinien für SaaS-Anwendungen ein.

Weitere Vorteile einer AIC4-Zertifizierung sowie zusätzliche Auswahlkriterien für einen Anbieter von vertrauenswürdiger KI im Bereich Kundenservice-Automatisierung haben wir Ihnen im Cognigy Whitepaper zusammengestellt. Jetzt kostenlos downloaden:

Whitepaper downloaden

Bei der Suche nach den richtigen Partnern, um ihr KI-Portfolio zu gestalten, hat die Telekom in Zusammenarbeit mit ihrem strategischen Einkauf ein umfangreiches Auswahlverfahren mit über 25 potentiellen Technologiepartnern durchgeführt. Hierbei wurden alle wichtigen Funktionalitäten (Features, Datenhaltung, Entwicklung, Support, Hosting, Schrems II) geprüft. Cognigy wurde dabei als bester deutscher Anbieter für die Telekom Conversational AI Suite ausgewählt.

Waldemar Mach, Produktmarketing Contact Solutions, Telekom Deutschland GmbH

Desktop-hero-image

Maßgeschneiderte KI für Enterprise Contact Center

Herausragende Kundenerlebnisse und nahtlose Integration mit Conversational AI.