Die Sorgen und Ängste sind groß, wenn es um Künstliche Intelligenz geht. Spätestens seit dem Start von ChatGPT macht sich die Gesellschaft intensive Gedanken über die Risiken. Im öffentlichen Diskurs steht vor allem die generative KI im Fokus, also jene, die in der Lage ist, auf Basis vorhandener Daten und Vorgaben von Anwendern neue Inhalte zu generieren. Selbst bekannte Manager und KI-Experten wie Elon Musk warnen in einem offenen Brief vor den Risiken und fordern eine Entwicklungspause. „Die Sorge ist groß, dass Maschinen die Weltherrschaft übernehmen. Die Risiken werden vergleichbar mit Pandemie oder Atomkrieg eingestuft“, weiß Sandra Wachter, die als Professorin an der Oxford University zur Künstlichen Intelligenz forscht. Für die gebürtige Wienerin ist die aktuelle Diskussion zu undifferenziert und viele Themenfelder wie Diskriminierung, Datenmissbrauch, Missinformation oder Ressourcen-Intensität fänden zu wenig Beachtung.
Große Sprachmodelle wie ChatGPT bauen auf Daten aus dem Internet auf, die Diskriminierung sei somit vorprogrammiert. „Nicht alle haben Zugang und nicht alle können sich frei im Internet ausdrücken. Daten sind nicht fair, sondern spiegeln unfair unsere Gesellschaft wider“, betont Wachter. Besonders problematisch seien Bereiche, in denen KI wichtige Entscheidungen über Menschen treffe, beispielsweise, ob jemand einen Job bekomme, eine Krankenversicherung abschließen könne oder für kreditfähig eingestuft werde. „Wenn Personengruppen in der Vergangenheit hier benachteiligt wurden, dann findet sich das in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sich die Benachteiligung fort. Wir brauchen daher ganz dringend staatliche Regulierung und auch das Bewusstsein der Anwender für diese Fehlleitungen“, so Wachter.
Auch dass Rechenzentren viel Strom für den Betrieb und viel Wasser zur Kühlung brauchen, finde zu wenig Beachtung. „Eine Trainingsrunde von ChatGPT verbraucht genauso viel Energie wie 126 dänische Haushalte in einem Jahr. Und um ein Datencenter für einen Tag zu kühlen, braucht man 360.000 Gallonen Wasser“, weiß Wachter. Allerdings erkennt die Forscherin auch: „Wenn man Bescheid weiß, kann man KI auch einsetzen, um der Umwelt zu helfen.“
Klare Regeln notwendig
KI ist ein Werkzeug, das man vielseitig einsetzen und auch missbräuchlich verwenden kann. Die Technologie so zu regulieren, dass nur Gutes entsteht, werde schwierig, so die Rechtswissenschafterin. Sie begrüßt es trotzdem, dass die Europäische Union als internationale Vorreiterin dem Thema mit einer Verordnung begegnet. „Wir brauchen richtige Gesetze. Man darf nicht nur auf das ethische Gefühl der Industrie setzen, sondern es braucht klare Regeln“, so Wachter, die bei der Ausarbeitung des „AI Act“ der Europäischen Union beratend mitwirkt. Ende nächsten Jahres soll klar sein, welche Bereiche mit welchem Riskoprofil behaftet sind. KI-gestützte Spamfilter bieten etwa minimales Risiko, während in der Rechtspflege, Bildung, Medizin oder Arbeitswelt besonders viel Schutz nötig sei. Die KI-Expertin warnte beim „Future Talk“ der Raiffeisen KAG gleichzeitig vor Lücken im KI-Act: So sehe das Gesetz etwa keine Beschwerdemöglichkeit vor und KI-Unternehmen sollen sich selbst zertifizieren dürfen. „Es ist noch nicht zu spät, das anders zu regeln“, sagt Wachter mit Blick auf die Trilog-Verhandlungen. Wachter ist jedenfalls überzeugt: „Ethik ist nicht etwas, das kostet, sondern in das man investiert.“
KI als Wachstumstreiber
Künstliche Intelligenz ist nicht ganz neu, aber mit ChatGPT ist das Thema nun an den Börsen angekommen, wie Günther Schmitt, Leiter der Abteilung „Aktien entwickelte Märkte“ in der Raiffeisen KAG, betont: „Der AI-Hype hat heuer die Kurse beflügelt.“ Der Kursanstieg beim S&P 500 ist vor allem durch das kräftige Plus der großen US-Technologiekonzerne getragen. Die positiven Erwartungen sind in einigen Aktienkursen bereits vorweggenommen.
KI ist ein Megatrend, der gerade erst einsetzt und in viele Bereiche transformieren werde, so Schmitt. In den nächsten zehn Jahren dürfte weltweit im Schnitt ein zusätzliches BIP-Wachstum von 1,3 Prozent pro Jahr entstehen. „Es betrifft insbesondere die entwickelten Märkte, aber zunehmend auch die Emerging Markets, selbst wenn diese Technologie dort noch nicht so stark im Einsatz ist. KI könnte wirklich ein Gamechanger sein“, so Schmitt.
Chancen für Investments
Die Chancen zeichneten sich daher auch für Investments ganz klar ab. Für den Fondsmanager sind vor allem Unternehmen, die ein hohes Potenzial an Automatisierung haben, interessant: „Aber eigentlich sollten fast alle Unternehmen davon profitieren.“ Über alle Branchen hinweg liege das Automatisierungspotenzial bei 25 Prozent. „Automatisierung und Arbeitsplätze sind aus gesellschaftlicher Sicht sehr brisant und auch für uns als ESG-Investor ein Aspekt, den wir im Rahmen unserer Engagements ansprechen und hinterfragen“, so Schmitt.
Generell sei der Dialog mit Unternehmen essenziell, denn dabei könne man sensible Themen wie Datenschutz, Diskriminierung oder Haftungsthemen proaktiv ansprechen und auch Verbesserungen einfordern. Ein kritischer Zugang zu Künstlicher Intelligenz sei angebracht, man dürfe aber nicht außer Acht lassen, welche positiven Entwicklungen Künstliche Intelligenz bringen könne. „Mittel- bis langfristig kann KI auch als positiver Trigger zur ESG-Transformation beitragen. Wir sehen Künstliche Intelligenz insgesamt als ein Thema an, das für Umwelt und Gesellschaft mehr Nutzen als Schaden bringt“, so Schmitt. Als ein Beispiel nennt er etwa Smart Farming.
Pilotprojekte laufen
Auch die Raiffeisen KAG selbst prüft gerade das Potenzial von KI in zwei Pilotprojekten, wie CEO Hannes Cizek berichtet. Die Fondsgesellschaft hat beim Thema Reporting bereits viel automatisiert, aber es gebe noch Potenzial. Auch im Fondsmanagement wird der Einsatz geprüft, wobei Cizek klarstellt: „Die Letztentscheidung wird immer der Fondsmanager treffen. Das Assetmanagement ist ja auch unser Differenzierungsmerkmal.“ Und gerade in der aktuellen Marktphase bekomme aktives Management wieder eine ganz neue Bedeutung.