Marktbericht 2025: Erklärbare KI im finanziellen Risikomanagement—Wachstum, Trends und strategische Einblicke für die nächsten 5 Jahre. Entdecken Sie, wie Transparenz und Compliance die Zukunft der finanziellen Risikoanalyse gestalten.
- Zusammenfassung und Marktübersicht
- Wichtige Technologietrends in der erklärbaren KI für finanzielles Risikomanagement
- Wettbewerbslandschaft und führende Lösung-Anbieter
- Marktwachstumsprognosen und CAGR-Analyse (2025–2030)
- Regionale Marktanalyse: Nordamerika, Europa, APAC und darüber hinaus
- Zukunftsausblick: Regulatorische Treiber und Innovationswege
- Herausforderungen, Risiken und aufkommende Chancen
- Quellen & Referenzen
Zusammenfassung und Marktübersicht
Erklärbare Künstliche Intelligenz (XAI) transformiert schnell das finanzielle Risikomanagement, indem sie Transparenz, Vertrauen und regulatorische Compliance in von KI gesteuerten Entscheidungsprozess verbessert. Da Finanzinstitute zunehmend Machine-Learning-Modelle für Kreditbewertung, Betrugserkennung und Portfolioverwaltung einsetzen, ist die Nachfrage nach Erklärbarkeit aufgrund regulatorischer Anforderungen und des Bedarfs an Vertrauen von Stakeholdern gestiegen. XAI bezieht sich auf Methoden und Techniken, die die Ergebnisse und die innere Funktionsweise von KI-Modellen für Menschen verständlich machen, sodass Finanzprofis automatisierte Entscheidungen interpretieren, validieren und anfechten können.
Der globale Markt für erklärbare KI im finanziellen Risikomanagement wird voraussichtlich bis 2025 robust wachsen, angetrieben von sich entwickelnden regulatorischen Rahmenbedingungen wie dem KI-Gesetz der Europäischen Union und den Richtlinien für Modellrisikomanagement der US-Notenbank. Diese Vorschriften betonen die Notwendigkeit von Transparenz und Verantwortlichkeit in KI-Systemen und zwingen Finanzinstitute, XAI-Lösungen zu übernehmen, um Compliance sicherzustellen und operationale Risiken zu mindern. Laut Gartner wird erwartet, dass bis 2025 70% der Organisationen XAI als kritische Anforderung für ihre KI-Initiativen identifizieren, gegenüber weniger als 10% im Jahr 2021.
Wichtige Markttreiber sind die Verbreitung komplexer KI-Modelle in der Risikoanalyse, erhöhte Aufsicht durch Regulierungsbehörden und wachsende Erwartungen von Kunden und Investoren an faire und unvoreingenommene Entscheidungen. Finanzinstitute investieren in XAI-Plattformen und -Tools, die Modellinterpretierbarkeit, Prüfpfade und Bias-Erkennung bieten. Führende Technologieanbieter wie IBM, SAS und FICO haben spezielle XAI-Lösungen entwickelt, die auf den Finanzsektor zugeschnitten sind und es Banken und Versicherern ermöglichen, Modellvorhersagen in Bereichen wie Kreditgenehmigungen, Geldwäschebekämpfung und Marktanalysen zu erklären.
Die Wettbewerbslandschaft ist geprägt von Partnerschaften zwischen Finanzinstituten und KI-Anbietern sowie dem Aufstieg spezialisierter XAI-Startups. Nordamerika und Europa sind führend in der Annahme, angetrieben durch strenge regulatorische Umgebungen und fortschrittliche digitale Infrastrukturen. Allerdings wird erwartet, dass der asiatisch-pazifische Raum das schnellste Wachstum verzeichnen wird, angetrieben durch schnelle Fintech-Innovationen und zunehmende regulatorische Harmonisierung.
Zusammenfassend wird erklärbare KI im finanziellen Risikomanagement unverzichtbar, nicht nur um regulatorische Vorgaben zu erfüllen, sondern auch um Vertrauen und Resilienz in zunehmend automatisierte Finanzsysteme zu fördern. Der Marktausblick für 2025 ist gekennzeichnet durch beschleunigte Akzeptanz, technologische Innovation und einen klaren Wandel hin zu transparenten, rechenschaftspflichtigen, KI-gesteuerten Risikomanagementpraktiken.
Wichtige Technologietrends in der erklärbaren KI für finanzielles Risikomanagement
Erklärbare KI (XAI) verwandelt schnell das finanzielle Risikomanagement, indem sie komplexe Machine-Learning-Modelle transparenter, interpretierbarer und vertrauenswürdiger macht. Da Finanzinstitute zunehmend auf KI-gesteuerte Systeme für Kreditbewertung, Betrugserkennung und Portfolioverwaltung angewiesen sind, fordern Regulierungsbehörden und Stakeholder mehr Klarheit darüber, wie diese Modelle zu ihren Entscheidungen gelangen. Im Jahr 2025 gestalten mehrere wichtige Technologietrends die Annahme und Evolution von XAI in diesem Sektor.
- Modellunabhängige Erklärungstechniken: Tools wie LIME (Local Interpretable Model-agnostic Explanations) und SHAP (SHapley Additive exPlanations) werden weit verbreitet eingesetzt, um nachträgliche Interpretierbarkeit für Black-Box-Modelle zu bieten. Diese Techniken ermöglichen es Risikomanagern, die Bedeutung von Merkmalen und den Einfluss einzelner Variablen auf Modellvorhersagen zu verstehen, unabhängig vom zugrunde liegenden Algorithmus. Dies ist entscheidend für die Einhaltung von Vorschriften wie dem KI-Gesetz der EU und dem US-Gesetz über Chancengleichheit im Kreditwesen, die Transparenz in automatisierten Entscheidungen verlangen (Europäisches Parlament).
- Integration von XAI in das Modellmanagement: Finanzinstitute integrieren XAI-Rahmenwerke in ihre Prozesse des Modellrisikomanagements. Dazu gehört die automatisierte Dokumentation der Modelllogik, Bias-Erkennung und kontinuierliche Überwachung auf Modellabweichungen. Eine solche Integration unterstützt die interne Prüfbarkeit und externe regulatorische Berichterstattung, wie in den aktuellen Richtlinien der Bank für Internationalen Zahlungsausgleich hervorgehoben.
- Erklärungen in natürlicher Sprache: Fortschritte in der natürlichen Sprachgenerierung ermöglichen es KI-Systemen, menschenlesbare Erklärungen für Risikoanalysen und Entscheidungen bereitzustellen. Dieser Trend verbessert die Kommunikation mit nicht-technischen Stakeholdern, einschließlich Kunden und Regulierungsbehörden, und wird von führenden Banken und Fintechs erprobt (IBM Research).
- Kontrafaktische und szenariobasierte Erklärungen: XAI-Tools bieten jetzt Szenarioanalysen, die zeigen, wie Änderungen bei Eingangsvariablen die Risikoergebnisse verändern können. Diese Fähigkeit ist besonders wertvoll für Stresstests und „Was-wäre-wenn“-Analysen, die proaktive Risikominderungsstrategien unterstützen (McKinsey & Company).
- Open-Source und Cloud-basierte XAI-Plattformen: Die Verbreitung von Open-Source-Bibliotheken und cloud-nativen XAI-Lösungen beschleunigt die Akzeptanz, indem technische Hürden gesenkt und eine skalierbare, unternehmensweite Bereitstellung ermöglicht wird (Google Cloud).
Diese Trends treiben insgesamt einen Wandel hin zu transparenteren, verantwortlicheren und robusteren KI-gesteuerten Risikomanagementpraktiken im Finanzsektor voran und positionieren XAI als einen entscheidenden Faktor für sowohl Innovation als auch regulatorische Compliance im Jahr 2025.
Wettbewerbslandschaft und führende Lösung-Anbieter
Die Wettbewerbslandschaft für erklärbare KI (XAI) im finanziellen Risikomanagement entwickelt sich schnell, angetrieben durch regulatorische Anforderungen, zunehmende Modellkomplexität und die Notwendigkeit transparenter Entscheidungsfindung. Da Finanzinstitute KI in Kreditbewertung, Betrugserkennung und Portfolioverwaltung integrieren, ist die Fähigkeit, Modelloutputs zu interpretieren und zu rechtfertigen, zu einem entscheidenden Differenzierungsmerkmal geworden. Der Markt ist geprägt von einer Mischung aus etablierten Technologielieferanten, spezialisierten KI-Startups und großen Cloud-Dienstleistern, die jeweils unterschiedliche Ansätze zur XAI bieten.
Zu den führenden Lösung-Anbietern gehören IBM, deren Watson OpenScale-Plattform Funktionen zur Modellüberwachung und Erklärbarkeit speziell für Finanzdienstleistungen bereitstellt. SAS bietet Model Manager mit integrierten XAI-Funktionen an, die es Banken ermöglichen, Machine-Learning-Modelle im Einklang mit regulatorischen Standards wie dem KI-Gesetz der EU und der SR-11-7-Richtlinie der US-Notenbank zu prüfen und zu interpretieren. FICO hat Erklärbarkeit in seine Decision Management Suite integriert, mit einem Fokus auf Kreditrisiko und Kreditvergabeanwendungen.
Cloud-Hyperscaler gestalten ebenfalls den Markt. Google Cloud bietet Erläuterbare KI-Tools innerhalb seiner Vertex-AI-Plattform an, die es Finanzinstituten ermöglichen, Merkmalsattributionen zu visualisieren und Verzerrungen in Echtzeit zu mindern. Microsoft Azure und Amazon Web Services (AWS) haben XAI-Toolkit in ihre Machine-Learning-Dienste integriert, um die regulatorische Konformität und das Modellmanagement für Finanzkunden zu unterstützen.
Spezialisierte Startups gewinnen an Bedeutung, indem sie sich ausschließlich auf XAI für Finanzen konzentrieren. H2O.ai bietet Driverless AI mit fortschrittlichen Interpretationsmodulen an, während Zest AI erklärbare Kreditvergabetools anbietet, die von Kreditgenossenschaften und Banken übernommen werden. DataRobot bietet eine end-to-end Modell-Erklärbarkeit, einschließlich Compliance-Dokumentation und Bias-Erkennung, die von Risikomanagement-Teams zunehmend geschätzt wird.
- Strategische Partnerschaften zwischen Banken und XAI-Anbietern nehmen zu, wie die Kooperationen zwischen JPMorgan Chase und IBM, sowie zwischen Goldman Sachs und SAS.
- Die regulatorische Überwachung intensiviert sich, was dazu führt, dass Lösung-Anbieter Erklärbarkeit, Prüfpfade und Bias-Minderung in ihren Angeboten priorisieren.
- Open-Source-Rahmenwerke wie Elyra und InterpretML gewinnen unter Finanzinstituten, die anpassbare XAI-Lösungen suchen, an Akzeptanz.
Mit der Reifung des Marktes wird die Differenzierung von der Tiefe der Erklärbarkeit, der Integration in bestehende Risikosysteme und der Fähigkeit abhängen, sich an die sich entwickelnden regulatorischen Anforderungen anzupassen. Anbieter, die robuste, skalierbare und regulatorisch konforme XAI-Lösungen anbieten können, stehen kurz davor, im Jahr 2025 und darüber hinaus führend zu sein.
Marktwachstumsprognosen und CAGR-Analyse (2025–2030)
Der Markt für erklärbare KI (XAI) im finanziellen Risikomanagement steht zwischen 2025 und 2030 vor robustem Wachstum, angetrieben durch zunehmende regulatorische Überwachung, die Notwendigkeit transparenter Entscheidungsfindung und die schnelle Akzeptanz von KI-gesteuerten Risikoanalysetools. Laut Prognosen von Gartner wird erwartet, dass der globale Markt für KI-Software bis 2027 297 Milliarden US-Dollar erreicht, wobei die Finanzdienstleistungen einen erheblichen Anteil aufgrund ihrer frühen Einführung von fortschrittlicher Analyse und Machine Learning darstellen. In diesem Kontext wird erwartet, dass das XAI-Segment schneller wächst als die allgemeinen Akzeptanzraten von KI, da Finanzinstitute die Erklärbarkeit priorisieren, um sich an die sich entwickelnden Vorschriften wie das KI-Gesetz der EU und die Richtlinien für das Modellrisikomanagement der US-Notenbank anzupassen.
Marktforschung von MarketsandMarkets schätzt, dass der globale XAI-Markt von 2025 bis 2030 mit einer jährlichen Wachstumsrate (CAGR) von etwa 23% wachsen wird, wobei der Finanzsektor einen wesentlichen Teil dieses Wachstums ausmacht. Dieses Wachstum wird durch die zunehmende Integration von XAI-Lösungen in Kreditbewertung, Betrugsbekämpfung, Geldwäschebekämpfung (AML) und Portfolioverwaltungssysteme unterstützt. Finanzinstitute investieren in XAI, um die Modelltransparenz zu erhöhen, die regulatorische Berichterstattung zu erleichtern und Vertrauen bei den Kunden aufzubauen, indem sie klare Erklärungen für automatisierte Entscheidungen bereitstellen.
Regional gesehen werden Nordamerika und Europa voraussichtlich führend bei der Einführung von XAI im finanziellen Risikomanagement sein, angetrieben durch strenge Compliance-Anforderungen und ein ausgereiftes Fintech-Ökosystem. Der asiatisch-pazifische Raum wird ebenfalls ein beschleunigtes Wachstum verzeichnen, angetrieben durch die Expansion des digitalen Bankwesens und die Modernisierung der Regulierung. Laut IDC nutzen Finanzdienstleistungen im asiatisch-pazifischen Raum zunehmend XAI, um lokale regulatorische Anforderungen zu erfüllen und die Genauigkeit der Risikoanalyse zu verbessern.
Bis 2030 wird der XAI-Markt im finanziellen Risikomanagement prognostiziert, dass er Milliarden-Dollar-Bewertungen erreicht, wobei führende Anbieter wie IBM, SAS und FICO ihre XAI-Angebote ausbauen, um spezifische Bedürfnisse des Sektors zu erfüllen. Die anhaltende CAGR spiegelt nicht nur regulatorische Treiber wider, sondern auch das Wettbewerbsimperativ für Finanzinstitute, KI-Modelle einzusetzen, die sowohl leistungsstark als auch interpretierbar sind.
Regionale Marktanalyse: Nordamerika, Europa, APAC und darüber hinaus
Die Akzeptanz von erklärbarer KI (XAI) im finanziellen Risikomanagement beschleunigt sich weltweit, wobei unterschiedliche regionale Dynamiken ihren Verlauf prägen. In Nordamerika, insbesondere den Vereinigten Staaten, treiben regulatorische Anforderungen und ein ausgereiftes Fintech-Ökosystem die frühe und robuste Akzeptanz an. Finanzinstitute nutzen XAI, um die Transparenz in Kreditbewertung, Betrugsbekämpfung und algorithmischem Handel zu erhöhen und sich an regulatorische Erwartungen von Institutionen wie der US-Börsenaufsicht und der Federal Reserve anzupassen. Der Fokus der Region auf die Interpretierbarkeit von Modellen wird durch den wachsenden Einfluss des AI-Risk-Management-Rahmenwerks des National Institute of Standards and Technology (NIST), das Erklärbarkeit als Kernprinzip fördert, weiter unterstrichen.
Europa erlebt einen parallelen Anstieg, angetrieben durch strenge Datenschutz- und KI-Governance-Rahmenbedingungen. Das vorgeschlagene KI-Gesetz der Europäischen Union und die Datenschutz-Grundverordnung (DSGVO) verlangen Transparenz und das „Recht auf Erklärung“ für automatisierte Entscheidungen, was Banken und Versicherer zwingt, XAI in ihre Risikomodelle zu integrieren. Führende europäische Finanzinstitute arbeiten mit Technologieanbietern zusammen, um erklärbares maschinelles Lernen in Bereichen wie Geldwäschebekämpfung (AML) und Kreditrisikobewertung einzuführen, wie in aktuellen Initiativen der Europäischen Bankenaufsichtsbehörde und der Europäischen Zentralbank hervorgehoben.
- Nordamerika: Frühe Akzeptanz, durch Vorschriften getrieben, Fokus auf Kredit- und Betrugsrisiko, starkes Anbieter-Ökosystem.
- Europa: Compliance-getrieben, Betonung der Verbraucherrechte, schnelle Integration in AML und Kreditrisiko, Bemühungen um länderübergreifende Harmonisierung.
Im asiatisch-pazifischen Raum ist die Landschaft heterogener. Fortgeschrittene Volkswirtschaften wie Japan, Singapur und Australien sind führend, indem sie XAI implementieren, um sich entwickelnden regulatorischen Standards gerecht zu werden und Vertrauen im digitalen Bankwesen zu fördern. Die Monetary Authority of Singapore und die Financial Services Agency of Japan haben Richtlinien herausgegeben, die eine verantwortungsvolle KI-Adaption, einschließlich Erklärbarkeit, fördern. In aufstrebenden asiatisch-pazifischen Märkten ist die Akzeptanz jedoch noch in den Kinderschuhen, begrenzt durch geringe regulatorische Druck und eine niedrigere digitale Reife.
Jenseits dieser Regionen befindet sich die Akzeptanz in Lateinamerika, dem Nahen Osten und Afrika noch in frühen Phasen, wobei Pilotprojekte und regulatorische Sandkästen das Potenzial von XAI im Risikomanagement erkunden. Mit zunehmender globaler regulatorischer Annäherung und dem Bestreben von Finanzinstituten, Innovationen mit Verantwortlichkeit in Einklang zu bringen, wird erwartet, dass die Nachfrage nach erklärbarer KI im Risikomanagement bis 2025 und darüber hinaus in allen Regionen zunimmt.
Zukunftsausblick: Regulatorische Treiber und Innovationswege
Mit Blick auf 2025 wird die Zukunft der erklärbaren KI (XAI) im finanziellen Risikomanagement durch eine Konvergenz regulatorischer Imperative und rapide technologische Innovation geformt. Regulierungsbehörden weltweit verstärken ihren Fokus auf Transparenz, Fairness und Verantwortlichkeit in der KI-gesteuerten Entscheidungsfindung, insbesondere in stark regulierten Bereichen wie Kreditbewertung, Geldwäschebekämpfung (AML) und Betrugserkennung. Das KI-Gesetz der Europäischen Union, das voraussichtlich 2025 in Kraft tritt, wird von Finanzinstituten verlangen, klare Erklärungen für automatisierte Entscheidungen bereitzustellen, insbesondere in Bezug auf den Zugang von Individuen zu Finanzdienstleistungen. Dieser regulatorische Druck wird von der Federal Reserve und der Office of the Comptroller of the Currency in den Vereinigten Staaten ergänzt, die Richtlinien herausgegeben haben, die das Modellrisikomanagement und die Notwendigkeit von Erklärbarkeit in KI-Modellen betonen.
Diese regulatorischen Treiber zwingen Finanzinstitute zu Investitionen in XAI-Lösungen, die komplexe Machine-Learning-Modelle entschlüsseln können, ohne die Vorhersagekraft zu beeinträchtigen. Der Markt erlebt einen Anstieg bei der Annahme von model-unabhängigen Erklärungstools wie SHAP und LIME sowie die Entwicklung von intrinsisch interpretierbaren Modellen, die für die Risikoanalyse maßgeschneidert sind. Laut einem Bericht von Gartner für 2024 testen oder implementieren über 60% der globalen Banken XAI-Rahmenwerke, um Compliance-Anforderungen zu erfüllen und Vertrauen bei den Stakeholdern aufzubauen.
Innovationswege entstehen auch durch Partnerschaften zwischen Finanzinstituten, Fintech-Startups und akademischen Forschungszentren. Diese Kooperationen fördern Fortschritte in Erklärbarkeitstechniken, wie kontrafaktische Erklärungen, ursächliche Inferenz und Visualisierungstools, die KI-Entscheidungen für nicht-technische Nutzer zugänglicher machen. Beispielsweise haben JPMorgan Chase und IBM gemeinsam an Plattformen für erklärbare KI gearbeitet, die sich nahtlos in bestehende Risikomanagementsysteme integrieren lassen und eine Echtzeitüberwachung und -prüfbarkeit ermöglichen.
- Regulatorische Sandkästen, wie sie von der UK Financial Conduct Authority betrieben werden, fördern Experimente mit XAI in einer kontrollierten Umgebung und beschleunigen den Weg von der Forschung zur Implementierung.
- Brancheneinheiten, einschließlich des Financial Stability Board, entwickeln Best Practices und technische Standards für erklärbare KI im Risikomanagement.
Zusammenfassend ist der Zukunftsausblick für erklärbare KI im finanziellen Risikomanagement durch einen dualen Verlauf geprägt: Regulatorische Mandate setzen einen Mindeststandard für Transparenz, während Innovationen das Werkzeugset für interpretierbare, vertrauenswürdige KI erweitern. Bis 2025 wird erwartet, dass XAI ein zentrale Bestandteil der Strategien für Risikomanagement ist und Finanzinstitute in die Lage versetzt, sich in sich verändernden Compliance-Landschaften zu navigieren und einen Wettbewerbsvorteil aufrechtzuerhalten.
Herausforderungen, Risiken und aufkommende Chancen
Erklärbare KI (XAI) transformiert schnell das finanzielle Risikomanagement, indem sie komplexe Machine-Learning-Modelle transparenter und interpretierbarer macht. Die Integration von XAI in finanzielle Arbeitsabläufe bringt jedoch eine einzigartige Reihe von Herausforderungen, Risiken und aufkommenden Chancen mit sich, während der Sektor auf 2025 zusteuert.
Eine der größten Herausforderungen besteht darin, Modellkomplexität mit Interpretierbarkeit in Einklang zu bringen. Finanzinstitute verlassen sich häufig auf hochgradig komplexe Algorithmen für Kreditbewertung, Betrugserkennung und Portfolioverwaltung. Diese Modelle, wie tiefe neuronale Netze, können überlegene Vorhersagegenauigkeit liefern, werden aber oft als „Black Boxes“ betrachtet. Regulierungsbehörden und Stakeholder verlangen zunehmend klare Erklärungen für automatisierte Entscheidungen, insbesondere unter Rahmenbedingungen wie dem KI-Gesetz der EU und den Modellrisikomanagement-Richtlinien der US-Notenbank. Diese Anforderungen zu erfüllen, ohne die Leistung zu beeinträchtigen, bleibt eine erhebliche Hürde.
Ein weiteres Risiko ist das Potenzial für „Erklärungsvoreingenommenheit“, wenn vereinfachte Modelloutputs Benutzer irreführen oder zugrunde liegende Datenprobleme verschleiern. Eine übermäßige Abhängigkeit von nachträglichen Erklärungstools kann ein falsches Sicherheitsgefühl vermitteln, insbesondere wenn die Erklärungen nicht den wahren Entscheidungsprozess des Modells genau widerspiegeln (Bank für Internationalen Zahlungsausgleich). Darüber hinaus erschwert das Fehlen standardisierter Metriken zur Bewertung der Erklärbarkeit die Überprüfung und die regulatorische Compliance.
Datenprivatsphäre und -sicherheit stellen ebenfalls kritische Risiken dar. XAI-Methoden erfordern häufig Zugang zu sensiblen Daten, um bedeutungsvolle Erklärungen zu generieren, was Bedenken hinsichtlich Datenlecks und der Einhaltung von Datenschutzvorschriften wie der DSGVO aufwirft (Europäische Kommission). Finanzinstitute müssen diese Abwägungen sorgfältig managen, um regulatorische Strafen und Reputationsschäden zu vermeiden.
Trotz dieser Herausforderungen ergeben sich erhebliche Chancen. XAI kann Vertrauen in KI-gesteuerte Risikomodelle stärken und eine breitere Akzeptanz in den Bereichen Kreditvergabe, Versicherungen und Handel fördern. Transparente Modelle können die Kundeneinbindung verbessern, indem sie klare Begründungen für Kreditentscheidungen oder Schadensgenehmigungen bereitstellen, was potenziell Streitigkeiten und regulatorische Interventionen verringert (McKinsey & Company). Darüber hinaus machen Fortschritte in der XAI-Forschung – wie kontrafaktische Erklärungen und intrinsisch interpretierbare Modelle – es zunehmend machbar, leistungsstarke, transparente KI-Systeme in Produktionsumgebungen einzusetzen.
Zusammenfassend lässt sich sagen, dass, während erklärbare KI neue Komplexitäten und Risiken im finanziellen Risikomanagement einführt, sie auch Chancen für größere Transparenz, regulatorische Anpassung und Kundenvertrauen freisetzt, während sich die Branche 2025 weiterentwickelt.
Quellen & Referenzen
- IBM
- SAS
- FICO
- Europäisches Parlament
- Bank für Internationalen Zahlungsausgleich
- McKinsey & Company
- Google Cloud
- Amazon Web Services (AWS)
- H2O.ai
- Zest AI
- DataRobot
- JPMorgan Chase
- Goldman Sachs
- Elyra
- InterpretML
- MarketsandMarkets
- IDC
- National Institute of Standards and Technology
- Europäische Bankenaufsichtsbehörde
- Europäische Zentralbank
- Monetary Authority of Singapore
- Financial Services Agency of Japan
- Office of the Comptroller of the Currency
- UK Financial Conduct Authority
- Financial Stability Board
- Europäische Kommission