Wie können wir Vertrauen in künstliche Intelligenz und europäische Datenwirtschaft schaffen? Mit dieser Frage beschäftigte sich Anfang Oktober die Veranstaltung „Business Treff Trustworthy AI“. Stefan Gindl vom Research Studio Data Science stellte das RSA FG Projekt TRUSTS vor.
Künstliche Intelligenz (AI) hat in den letzten Jahren rasante Fortschritte gemacht: Algorithmen aus diesem Bereich beeinflussen heute Prozesse in der Industrie, erkennen Muster in der Medizin oder wählen Jobbewerber*innen aus. Je mehr Entscheidungen diese Systeme für uns treffen, desto wichtiger wird es, dass sie auf „trustworthy AI“, vertrauenswürdiger künstlicher Intelligenz, aufbauen.
Um diese Vertrauenswürdigkeit ging es Anfang Oktober bei der Business Treff Veranstaltung „Trustworthy AI“, die von der Wirtschaftsagentur Wien organisiert wurde. Stefan Gindl, stellvertretender Leiter des Research Studios Data Science, stellte dabei das RSA FG Projekt TRUSTS – Trusted Secure Data Sharing Space vor.
Mit TRUSTS zu vertrauenswürdigen Datenmärkten in Europa
Seit Jänner 2020 arbeitet das Research Studio Data Science gemeinsam mit 17 Partner*innen aus 9 Ländern am internationalen Projekt „Horizon 2020 TRUSTS“. Damit Europa im Zeitalter von Künstlicher Intelligenz mit Big Tech und globalen Lieferketten mithalten kann, ist eine funktionierende europäische Datenwirtschaft unerlässlich. TRUSTS hat deshalb das Ziel, einen vertrauenswürdigen europäischen Datenmarkt aufzubauen.
In „Datenräumen“ sollen Daten von verschiedenen Partnern nicht zentral, sondern an der Quelle gespeichert und nur bei Bedarf gemeinsam genutzt werden. TRUSTS will Stakeholder aus Wissenschaft, Wirtschaft und Industrie miteinander vernetzen und durch zertifizierte Services und Sicherheitsmerkmale Vertrauen zwischen ihnen schaffen. TRUSTS steht damit in enger Verbindung zu GAIA-X, dem Projekt zum Aufbau einer leistungs- und wettbewerbsfähigen, sicheren und vertrauenswürdigen Dateninfrastruktur für Europa.
Was brauchen wir, um AI zu vertrauen?
In einer anderen Keynote sprach Carina Zehetmaier über Vertrauenswürdigkeit in ihrem Unternehmen Taxtastic. David Reichl von der EU-Agentur für Grundrechte gab Einblicke in die rechtlichen und ethischen Schwierigkeiten von AI. In einer anschließenden spannenden Diskussionsrunde tauschten sich die Teilnehmer*innen über die Herausforderungen für AI aus.
Ein besonderer Fokus lag auf der Frage, wie AI-Systeme erklärbar gemacht werden und Menschen in der Entscheidungsschleife bleiben können – bzw. ob sie es sollten. Ein weiteres Schwerpunktthema war die Voreingenommenheit – oder „Bias“ – von AI. Ein kluger Umgang mit Vorurteilen in Datensets kann helfen, existierende Schlagseiten in der Gesellschaft abzuschwächen. Gleichzeitig gibt es aber relevante Tendenzen, die es zu erhalten gilt. Ein kluger Zugang zu dieser und ähnlichen Fragestellungen kann dafür sorgen, dass die Risiken von AI minimiert werden und die Vorteile überwiegen.