“Computer werden zwar immer leistungsfähiger, sie sind aber auch ziemlich dumm”, sagt John Giannandrea. Er ist bei Google für den Bereich Artificial Intelligence (AI) verantwortlich. Ziel sei es, den Computern beizubringen, smarter zu werden. Den tatsächlich seien Maschinen Menschen nur in sehr engen Feldern überlegen: “Sie sind noch weit davon entfernt, Menschen generell zu übertreffen.” Giannandrea nennt einige Beipiele. So wären Computer etwa sehr schlecht darin, Informationen aus einer kleinen Stichprobe abzuleiten, wie es Menschen in qualitativen Analysen tun. Auch könnten sie Fähigkeiten noch schlecht auf ähnliche Tätigkeiten übertragen. “Man würde denken, wenn eine AI ein Videospiel gut beherrscht, schafft sie das auch bei einem anderen aus dem gleichen Genre. Es ist aber nicht so”, sagt der Google AI-Chef.

+++ TechCrunch Disrupt SF: Startup-Messe mit Konzepten statt Show +++

Es geht auch ohne Daten…

An diesen und weiteren Herausforderungen arbeite man beim Internet-Konzern. Giannandrea sieht dabei auch große Chancen für Startups: “Ein so großer Anteil dieser Technologie ist Open Source. Startups haben Zugang zu absoluten Top-Entwicklungen”, sagt er. Die Anmerkung des Moderators, dass Google aber über Unmengen an Daten verfüge, die die Startups nicht haben, lässt Giannandrea nicht gelten. Man brauche für Machine Learning überhaupt nicht so viele Daten, wie immer behauptet werde. Und überdies publiziere Google sehr viele seiner Daten auf die eine oder andere Weise.

Die Sorgen der Unwissenden

Auch bei einem anderen gängigen Kritikpunkt beschwichtigt der Google AI-Chef. Er habe keine Angst vor der AI-Apokalypse. “Es sind Menschen, die die Technologie nicht verstehen, die sich solche Sorgen über Artificial General Intelligence machen”, sagt er. Das habe auch mit dem großen Hype im Moment zu tun. Dennoch räumt Giannandrea ein: “Die ethischen Bedenken sind gerechtfertigt. Daher arbeiten wir auch daran. Es ist aber nicht so, dass hier eine unvermeidbare Katastrophe auf uns zukommt.” Die größte Herausforderung in der KI-Forschung sieht er in einem anderen Bereich: “Es gibt da draußen Millionen Publikationen, aber Computer können noch immer nicht sinnerfassend lesen. Es geht in der Forschung nun darum, dass sie das alles tatsächlich verstehen und nutzen können.”

“Machine Learning ist gut für den Datenschutz”

Machine Learning-Systeme sollen nicht parteiisch werden

Was ethische Bedenken angeht, sieht Giannandrea vor allem zwei große Herausforderungen. Erstens, dass so viel Information im Internet parteiisch oder gar falsch ist. “Wir arbeiten daran, dass unsere Machine Learning-Systeme diese Verzerrung erkennen und nicht selbst parteiisch werden”, erklärt er. Zweitens müsse man an der Erklärbarkeit von AI arbeiten: “KI darf für User keine Blackbox sein. Sie müssen verstehen, was da passiert, damit sie keine Angst davor haben.” Im Privacy-Bereich sieht er wenig überraschend kein Problem. Man nehme Datenschutz bei Google sehr ernst. Und User würden ja schließlich viel für ihre Daten bekommen. Giannandrea geht sogar noch weiter: “Machine Learning ist gut für den Datenschutz”. Denn die anonymisierte Nutzung und Aggregation von Daten würde es Menschen letztendlich ermöglichen, sich besser zu schützen.

+++ Fokus: AI, Chatbots und Deeptech+++