Frau Kaliouby, Sie arbeiten beim Thema Gesichtserkennung in einem Bereich, der der Grundlagenforschung nahekommt. Die Erkenntnisse können zum Wohle oder zum Schaden der Einzelnen oder der gesamten Gesellschaft eingesetzt werden.
RANA EL KALIOUBY: Ja, das stimmt. Zu der Zeit, als wir Affectiva gegründet haben, saßen wir abends am Küchentisch und haben überlegt: Können wir Kontrolle behalten über die Anwendungsebene, auf der unsere Technologie eingesetzt wird? Was wenn Firmen die Technologie einsetzen, ohne die Menschen nach deren Einwilligung gefragt zu haben? Unsere Antwort auf diese Fragen war, dass wir klar entschieden haben, nicht mit bestimmten Industrien zusammenzuarbeiten. Das war natürlich vor allem die Verteidigungs- und die Überwachungsindustrie.
Ging der Ansatz auf? Konnten Sie das neun Jahre durchhalten?
Es gab 2013 einen Zeitpunkt, wo es uns finanziell wirklich schlecht ging. Wir standen kurz vor der Pleite. Und da kam tatsächlich ein Angebot von einem der großen amerikanischen Sicherheitsdienste. Die wollten eine wirklich große Summe investieren und unsere Produkte einsetzen. Aber wir haben entschieden, es nicht zu tun, auch auf die Gefahr hin, die Firma schließen zu müssen. Das war keine leichte Entscheidung, denn es hängen ja auch Schicksale an so einem Projekt. Ganze Familien. Aber es fühlte sich so an, als müssten wir uns auf unsere Kernwerte zurückbesinnen.
Und dabei wissen Sie genau, dass es andere Entwickler in diesem Segment geben wird, die genau diesen Schritt gehen werden.
Exakt. Und ich habe wahnsinnig viel darüber nachgedacht. Die Technologie selbst ist ja neutral. Es hängt von der Anwendung ab, ob es gut oder böse wird. Also hätte eine Konsequenz sein können, die Entwicklung gar nicht zu betreiben. Aber ich habe so viele Ideen für eine gute Implementierung der Technologie. Wo sie Dinge besser macht, Nutzen stiftet, wie zum Beispiel in der Bildung und Medizin. Das war stärker, als die Zweifel.
Aber natürlich ist es mit einer strategischen Entscheidung nicht getan. Wir müssen jeden Tag darauf schauen, was Unternehmen mit unserer Technologie machen.
Viele große KI-Entwickler glauben nicht daran, dass politische Regulierungssysteme schnell genug sein können, um die KI im Zaum zu halten. Sie hoffen auf die Selbstkontrolle der Industrie. Ist das nicht naiv?
Wir brauchen auf jeden Fall grundlegende Regulierungen, zum Beispiel zum Thema Datenschutz. Aber im Detail ist die Gesetzgebung tatsächlich immer einen Schritt zu langsam. Ich glaube zutiefst daran, dass die Masterminds der Industrie die Köpfe zusammenstecken müssen und sich Ideen überlegen. Ich glaube zum Beispiel, dass man die KI nutzen kann, um die KI zu kontrollieren. Wo der Staat allerdings dringend tätig werden muss, ist im Bereich Bildung. In den Computerwissenschaften gibt es bislang kaum Lehrveranstaltungen zu Ethik und gesellschaftlicher Verantwortung. Das muss sich dringend ändern.
Wir sind Teilnehmer der „Partnership on AI“. Das ist ein Konsortium, das von den ganz großen KI-Forschern bei Microsoft, Facebook und Amazon gestartet wurde. Wir treffen uns zweimal jährlich mit Vertretern aus der Politik, von NGOs und von den Hochschulen, um uns auszutauschen. Und es gibt einzelne Arbeitsgruppen, die das ganze Jahr überarbeiten. Ich bin in einer, die sich mit „fairer, verantwortungsvoller und transparenter AI“ beschäftigt. Wir suchen nach Best Practices zum Umgang mit AI.
Nach welchen ethischen Regeln kann man da spielen? Gesellschaften sehen die Themen durchaus sehr unterschiedlich. Eine „intelligente“ Autoversicherung mit Pay as you drive ist für Amerikaner logisch, für Deutsche macht sie das Solidaritätsprinzip kaputt. Da bleibt doch nur der kleinste gemeinsame Nenner.
Ja, das kann ein Problem sein. KI ermöglicht eine hohe Effizienz auf individueller Ebene. Das ist aber nicht gleichzeitig richtig für das System.
Sind Sie darauf vorbereitet, dass Regierungen Ihnen einen Teil der Arbeit verbieten?
Ich glaube nicht, dass man uns das verbietet. Aber ich glaube fest daran, dass es Regulierungen in Sachen Gesichtserkennung geben wird. Und das ist gut so. Wir können ja auch zum Beispiel unterschiedliche Ethnien unterschieden. Die Ableitung daraus darf niemals diskriminierend sein. Das muss kontrolliert werden. Es wird kein Verbot geben, aber es muss Regeln geben. Ich meine: Schauen Sie mich an. Ich bin in Kairo geboren und teilweise in Dubai aufgewachsen. Da gibt es nicht nur das Thema der Diskriminierung, Wir müssen auch darauf achten, dass die ökonomische Lücke zwischen den Ländern, die Zugang zu KI haben, und zum Beispiel Entwicklungsländern nicht noch größer wird.
Werfen wir noch einen Blick direkt auf Emotionserkennung. Wird es das Verhalten der Menschen ändern, wenn sie wissen, dass Maschinen ihre Gesichtszüge lesen?
Die kurze Antwort lautet: noch nicht. Aber wir können ja schon heute beobachten, dass sich Menschen mit Gleichgesinnten zusammentun. Das kann zu einem gewissen Grad auch für Menschen gelten, die emotional ähnlich reagieren. Es könnte eine emotionale Filterblase entstehen. Aber wenn die Systeme richtig gut funktionieren, dann ist keine Anpassung des Verhaltens nötig, um sie zu steuern. Emotionserkennung ist, wenn sie gut gemacht ist, ein sehr effektives User Interface.