Community soll Fairness steuern

IBM öffnet die Black Box der künstlichen Intelligenz

25. September 2018, 12:09 Uhr | Karin Zühlke
© IBM

Mit einer neuen Software und der Open Source Community will IBM mehr Transparenz in die Künstlichen Intelligenz bringen und damit Vorbehalte aus dem Weg räumen.

Die Software zeigt in Echtzeit auf welcher Grundlage Entscheidungsvorschläge zustande kommen und erkennt automatisch quantitative und qualitative Mängel in Daten und KI-Modellen. Sie läuft auf der IBM Cloud und soll Unternehmen helfen, KI-Systeme für eine große Bandbreite an Branchen und Kunden nutzbar zu machen, indem sie Vertrauen in die Qualität der Entscheidungsvorschläge schafft. Zusätzlich übergibt IBM Research ein KI-Toolkit zur Erkennung von systematischen Fehlern und Anpassung an die Open-Source-Community.

Damit soll der weltweite Austausch und die Zusammenarbeit zur Entwicklung von vorurteilsfreien KIs gefördert werden.  „IBM hat bei der Festlegung von Vertrauens- und Transparenzgrundsätzen für die Entwicklung neuer KI-Technologien Maßstäbe für die ganze Industrie gesetzt“, erklärt David Kenny, SVP of Cognitive Solutions von IBM.

„Es ist an der Zeit, diesen Prinzipien auch Taten folgen zu lassen. Wir geben den Unternehmen, die KI einsetzen und dem potenziellen Risiko durch fehlerhafte Entscheidungen ausgesetzt sind, neue Transparenz und Kontrolle.” Grundlage sind Untersuchungen von IBMs Institute for Business Value. Demnach streben zwar 82 Prozent der Unternehmen eine KI Einführung an, aber 60 Prozent befürchten Probleme mit der Verlässlichkeit der Technologie. Und 63 Prozent haben nicht die Mitarbeiter im Haus, um die Technik sicher zu managen.

Entscheidungen der Künstlichen Intelligenz sichtbar machen

Die neue Software in der IBM Cloud arbeitet mit Modellen, die sich aus einer Vielfalt von Frameworks für maschinelles Lernen und KI-Umgebungen wie Watson, Tensorflow, SparkML, AWS SageMaker, und AzureML zusammensetzt. Somit profitieren Unternehmen von den Kontrollmöglichkeiten für die meistverbreiteten KI Frameworks. Man kann damit aber auch die Entscheidungsgrundlagen von jedem Workflow überwachen. Die Software lässt sich also an die individuellen Bedürfnisse der Unternehmen anpassen.

Der vollautomatisierte Software-Service erklärt die Entscheidungsfindung durch KI während der Verarbeitung. So werden potentielle Mängel in Quantität oder Qualität der dem System zur Verfügung gestellten Daten oder nicht balancierte Ergebnisse von vornherein vermieden. Die Software empfiehlt gegebenenfalls automatisch, dem Modell mehr Daten hinzuzufügen, um Anpassungen vorzunehmen.

Die Erklärungen sind einfach zu verstehen und zeigen alle Faktoren klar auf, die Entscheidungen der KI in die eine oder andere Richtung beeinflusst haben und wie vertrauenswürdig der Vorschlag ist. Die Datengrundlagen zur Treffsicherheit, Ausführung und Fairness und die Herkunft des jeweiligen KI-Modells werden aufgezeichnet. So können Kundenservice oder Compliance-Verantwortliche jederzeit Einsicht nehmen, was auch für die europäische Datenschutzrichtlinie DSGVO wichtig ist.

Diese Möglichkeiten können Mitarbeiter ohne IT-Kenntnisse mit Hilfe von visuellen Dachboards nutzen. So können nicht nur spezialisierte KI-Experten nachvollziehen, wie KI-Entscheidungen getroffen werden, was Abhängigkeiten verhindert und mehr Vertrauen schafft. IBM stellt auch neue Beratungsservices zur Verfügung, mit denen Unternehmen ihre eigenen Prozesse und Schnittstellen von Mensch zu KI erstellen können – um systematische Fehler in den Entscheidungsvorschlägen von KI zu minimieren.

Anbieter zum Thema

zu Matchmaker+

  1. IBM öffnet die Black Box der künstlichen Intelligenz
  2. Mehr Fairness in der KI durch Unterstützung der Open-Source-Community

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu IBM Deutschland GmbH

Weitere Artikel zu IoT / IIoT / Industrie 4.0