TU Wien CAIML

Podiumsdiskussion bei Binder Grösswang

Künstliche Intelligenz und Ethik - Was macht KI mit unserer Gesellschaft?

About the Event

Wien, am (07. Oktober 2025) Binder Grösswang lud gemeinsam mit dem Center for Artificial Intelligence and Machine Learning (CAIML) der Technischen Universität Wien zur Podiumsdikussion „KI und Ethik – Was macht KI mit unserer Gesellschaft?“ in die Wiener Kanzleiräumlichkeiten.

Am Podium: Univ. Prof. Mag. Dr. Sabine T. Köszegi, Arbeitswissenschaftlerin, Organisationsforscherin und Institutsvorständin am Institut für Managementwissenschaften an der TU Wien. DDr. Erich Prem, Gründer und Geschäftsführer der eutema GmbH und seitens Binder Grösswang Rechtsanwälte, Dr. Ivo Rungg, Partner und Leiter der Praxisgruppe Intellectual Property und Information Technology & Digital Law. Die Moderation übernahm Gundula Geiginger von PULS 4. Intellectual Property und Information Technology & Digital Law Intellectual Property und Information Technology & Digital Law. Die Moderation übernahm Gundula Geiginger von PULS 4.

Talks and Speakers

Der Abend begann mit einem Impulsvortrag von DDr. Erich Prem, der ein eindrucksvolles Plädoyer für einen digitalen Humanismus hielt. Im Mittelpunkt stand die Frage, wie Künstliche Intelligenz unsere Gesellschaft verändert – und wie wir diese Entwicklung aktiv gestalten können. KI, so Prem, sei längst kein Zukunftsthema mehr, sondern Teil unseres Alltags: Sie stecke in Smartphones, Fahrzeugen und Plattformen und beeinflusse, welche Informationen wir sehen, welche Entscheidungen wir treffen und welche Chancen sich uns eröffnen. Prem warnte vor einer zunehmend „hyperindividualisierten Welt“, in der datenbasierte Systeme traditionelle Werte wie Solidarität und Fürsorge verdrängen. Am Beispiel des Versicherungswesens zeigte er, wie algorithmische Berechnungen zwar Fairness suggerieren, zugleich aber das gemeinschaftliche Prinzip der Solidarität verändern. Besondere Aufmerksamkeit widmete Prem den ethischen Herausforderungen von Empfehlungssystemen. Diese prägen Wahrnehmung und Verhalten, ohne Verantwortung übernehmen zu können. Große Plattformen gewännen dadurch eine beispiellose Steuerungsmacht über Konsum und Information – ein Zustand, den Prem als „digitalen Merkantilismus“ bezeichnete. Daraus entstehe eine neue Form von Kontrollmacht, die Fragen nach Freiheit, Verantwortung und Fairness aufwerfe. Auch das Recht stoße hier an seine Grenzen. Oft leben wir in einer „Zustimmungsfiktion“ – wir akzeptieren Nutzungsbedingungen, ohne wirklich zu verstehen, was sie bedeuten. Was als „ethische KI“ gilt, definierten zudem häufig jene, die sie entwickelten. So entstehe ein subtiler digitaler Normenzwang, der die Balance zwischen Autonomie und Kontrolle auf die Probe stelle. Dennoch zeigte sich Prem optimistisch und betont, „Fortschritt muss gestaltet, nicht verweigert werden“. „Vielleicht müssen wir wieder lernen, Nein zu sagen und der Technik klare Grenzen zu setzen – damit sie dem Menschen dient und nicht umgekehrt.“

Univ.-Prof. Mag. Dr. Sabine T. Köszegi betonte, dass Technologie kein Schicksal ist, sondern von uns selbst gestaltet wird. Künstliche Intelligenz bringe bereits heute tiefgreifende Veränderungen für die Arbeitswelt mit sich: Studien zufolge könne künftig jede dritte Arbeitsstunde automatisiert werden – branchenübergreifend und vor allem bei standardisierbaren Tätigkeiten. Gleichzeitig steige der Bedarf an hochqualifizierten Fachkräften. Köszegi warnte, dass der Wegfall klassischer Einstiegstätigkeiten („Early Entry Jobs“) gesellschaftliche Folgen haben werde. „Die Digitalisierung bringt nicht nur Effizienz, sondern auch soziale Herausforderungen“, so Köszegi. „Die Einkommensschere droht sich zu vergrößern – dem müssen wir mit gezielter Vorsorge und Qualifizierung begegnen.“ Zugleich hob sie die Bedeutung menschlicher Kompetenzen hervor: „Alles, was sozialen Kontakt, Empathie und Kreativität erfordert, wird weiterhin wichtig bleiben.“ Aber analytisches und problemlösendes Denken müsse gezielter trainiert werden, um Innovationskraft zu sichern. Es zeigt sich zunehmend, dass der Mensch kognitive Prozesse immer häufiger an technische Hilfsmittel auslagert. Ein Phänomen, das als kognitives Offloading bezeichnet wird. Diese Entlastung hat einerseits Vorteile, führt aber zugleich dazu, dass zentrale Denkfähigkeiten weniger trainiert werden. Umso wichtiger sei es, Technologien aktiv, transparent und werteorientiert zu gestalten. „Fortschritt darf nicht Selbstzweck sein“, betonte Köszegi. Entscheidend sei, die Chancen der digitalen Transformation im Sinne des Menschen zu nutzen – für eine Zukunft, in der Innovation und Ethik im Einklang stehen. Auf die Frage nach Bias in KI-Systemen betonte Prem, dass künstliche Intelligenz immer nur aus den Daten der Vergangenheit lerne und keine Visionen entwickeln könne, wie es der Mensch vermag. „Fairness ist keine mathematische, sondern eine gesellschaftliche Frage“, so Prem. KI werfe Fragen auf, die wir als Gesellschaft erst aushandeln müssten. Europa habe dabei zu lange zugeschaut, die Umsetzung gesetzlicher Rahmenbedingungen verlaufe noch zu langsam, und auch geopolitische Dynamiken spielen eine zentrale Rolle.

Dr. Ivo Rungg, betonte, dass KI-Kompetenz ein zentraler Schlüssel für ethisches Handeln und gesellschaftliche Verantwortung ist. Die ethische Diskussion lasse sich nicht allein rechtlich lösen – auch nicht durch den AI-Act. Entscheidend sei, dass Unternehmen und Gesellschaft besser verstehen, wie KI funktioniert und welche Entscheidungen Algorithmen vorbereiten. Regierungen müssten daher stärker in digitale Bildung und Aufklärung investieren, um die Fähigkeit zur kritischen Reflexion zu fördern. Mit Blick auf den Datenschutz verwies Rungg auf die Herausforderungen durch die Verarbeitung großer Datenmengen. Diese beträfen nicht nur internationale Plattformen, sondern zunehmend auch Unternehmen anderer Branchen, da viele KI-Modelle in der Anwendung auf personenbezogene und eine Vielzahl anderer Daten zugreifen können. Dadurch entstünden komplexe rechtliche Fragen – etwa in Bezug auf DSGVO, Urheberrecht und Geschäftsgeheimnisse, die ohne entsprechendes Wissen zu dem Training und der Architektur der Modelle für viele Organisationen schwer zu überblicken seien. „KI-Modelle sind oft vortrainiert und schwer nachvollziehbar – das Bewusstsein für den Wert von Daten muss in Österreich noch wachsen“, betonte er. Auch auf internationaler Ebene sieht Rungg Handlungsbedarf. Große KI-Modelle stammen vorwiegend aus den USA und China, was europäischen Anwendern zusätzlichen Druck auferlege. Gleichzeitig könne Europa mit der klugen, rechtlich und ethisch vertretbaren Nutzung seiner Daten und seiner Regulierung zur Schaffung einer vertrauenswürdigen KI eine Vorreiterrolle übernehmen. „Mit der DSGVO ist es der EU gelungen, internationale Maßstäbe für Datenschutz zu setzen. Auch bei Künstlicher Intelligenz brauchen wir langfristig einen weltweiten Mindeststandard“, so Rungg.

Fazit des Abends: Die Diskussion machte deutlich, dass Künstliche Intelligenz weit über technische Fragen hinausgeht – sie verändert Arbeit, Gesellschaft und Recht gleichermaßen. Die Herausforderungen reichen von rechtlichen Fragen, wie Haftung, Datenschutz und geistigem Eigentum über ethische Verantwortung bis hin zur Gestaltung einer menschzentrierten digitalen Transformation. Entscheidend wird sein, klare Leitlinien zu entwickeln, die Innovation fördern und zugleich grundlegende Werte schützen. Einigkeit herrschte darüber, dass KI nicht nur ein technologisches, sondern vor allem auch ein gesellschaftliches und ethisches Zukunftsthema ist – mit unmittelbarer Relevanz für Praxis, Politik, Recht und Forschung. Die Diskutanten zeigten sich zuversichtlich, dass Europa durch klare Rahmenbedingungen, hohe ethische Standards und gezielte Kompetenzförderung eine starke, verantwortungsvolle Position im globalen KI-Wettbewerb einnehmen kann. Bei gemeinsamem Networking mit kulinarischem Ausklang wurde in angeregter Atmosphäre noch lange weiter über die vielfältigen Aspekte von Künstlicher Intelligenz und digitaler Transformation diskutiert.

Eröffnungsstatement von Erich Prem

Ich hab 15 Minuten und soll über KI und Ethik sprechen, d.h. es wird möglicherweise ein bisschen dicht. Aber schauen wir. Sprechen möchte ich über die KI, über unsere Gesellschaft und das Ganze ist ein Plädoyer für einen digitalen Humanismus.

Wenn wir heute über künstliche Intelligenz sprechen, dann sprechen wir natürlich, und das wurde schon angesprochen, nicht über ein exotisches Zukunftsthemas. Wir sprechen viel mehr über etwas, das vielleicht Teil unseres Alltags geworden ist. Das uns unbemerkt, vielleicht auch tief verändert und auch unsere Gesellschaft. Künstliche Intelligenz steckt in unseren Smartphones, in unseren Autos, in den Plattformen, die wir zur Kommunikation nutzen, mit denen wir einkaufen, lernen und vielleicht sogar verlieben. Sie entscheidet mit, was wir sehen, welche Musik wir hören welchen Job wird empfohlen bekommen und welchen vielleicht auch nicht bekommen, welchen Partner wir finden, sei es kurz- oder auch langfristig. Doch während die Technik immer klüger wird, müssen wir uns als Gesellschaft auch fragen, was macht KI mit uns und was machen wir mit ihr? Ich möchte Ihnen fünf Thesen des digitalen Humanismus präsentieren und erklären, was sie bedeuten.

Erstens, digitale Technologie verändert uns und unseren Leben. Wir leben längst in einer Gesellschaft, die die Philosophen postdigital nennen. Das heißt nicht, dass sie nicht digital ist, sondern das heißt, dass sie so digital geworden ist, dass der Unterschied zwischen digital und nicht-digital eigentlich keinen Sinn macht. Informationstechnologie ist kein Werkzeug mehr, das wir gelegentlich benutzen. Sie ist eine Struktur geworden, in der wir leben. Und jetzt mit der KI steht diese Struktur auf einem neuen Fundament, denn künstliche Intelligenz weiß, klassifiziert, sagt vorher und handelt auch und kann gegebenenfalls auch kontrollieren.

Das Versprechen lautet, alles wird persönlicher, bequemer, passender. KI schafft eine individualisierte, manche würden sagen hyperindividualisierte Welt. Sie weiß, wer wir sind, was wir mögen, und manchmal sogar was wir als Nächstes tun werden. Ein Beispiel, die Versicherung. Früher galt gleiche Prämie für gleiche Gruppe. Also wenn Sie ein Haus haben, ein teures Haus, weil Sie reicher sind, müssen Sie ein bisschen mehr zahlen und wenn Sie weniger in Ihrer Wohnung haben, dann zahlen Sie weniger für Ihre Prämie und die meisten von uns würden sagen, das ist fair, das ist gerecht. Heute können wir individuelle Tarife auf der Basis von Daten erschränken. Jung oder alt, risikofreudig oder vorsichtig. Freitagnacht mit dem Auto unterwegs oder lieber daheim. All das kann in Berechnungen mit einfließen. Wir können die Prämien individualisieren. Wir können ein Gerät in Ihr Auto einbauen und sogar sicherstellen, dass das Auto Freitagnacht lieber zu Hause bleibt.

Wir können in der Zukunft vielleicht sogar vorschlagen, wenn Sie Freitagnacht doch lieber fahren wollen und nicht die Autobahn verwenden wollen, dann müssen Sie einen Aufschlag zahlen, weil dann ist das Risiko höher. Auf den ersten Blick klingt das auch gerecht. Wer weniger Risiko verursacht, wer zahlt weniger. Aber zugleich verlieren wir auch etwas. Wir verlieren die Uridee der Versicherung, das Gemeinschaftliche, das solidarische Tragen eines Risikos. Wir können dieses Risiko heute hyperindividualisieren, nicht nur auf das Individuum abschieben, sondern sogar auf die Situation, auf die Minute auf den Kontext in dem sie sich bewegen. Versicherung war einmal Solidarität. Viele Zahlen, damit der Einzelne im Notfall geschützt ist, kommt eigentlich aus dem Mittelalter. Wenn KI die Gemeinschaft zerlegt in individuelle Risikoprofile, dann stellt sich für manche die Frage, ist das noch fair? Oder verlieren wir gerade das, was Gesellschaft ausmacht? Das Gemeinsame. Die Fürsorge für andere.

Zweitens, digitale Technologie muss den Menschen und seine Umwelt schützen. KI soll uns helfen, gute Entscheidungen zu treffen. Sie soll uns das zeigen, was für uns relevant ist. Sie empfiehlt uns Nachrichten, Produkte, Freundschaften, Musik. Kurz, sie schlägt uns weniger durchs Leben vor. Aber so wie Technologie sind auch Empfehlungen nicht neutral. Sie beeinflussen uns, als Einzelne, als Konsumentinnen, als Bürgerinnen und Bürger und auch als Gesellschaft. Nehmen wir die Empfehlungsalgorithmen großer Plattformen. Was sie uns zeigen, folgt einer Logik, einer Relevanzprognose. Was klickst du? Was kann dich fesseln? Was bringt der Plattformen Gewinn? Doch mit jeder Empfehlung entsteht auch ein Stück Verantwortung. Gegenüber dem Einzelnen, gegenüber Dritten, oder gegenüber der Gesellschaft. Wenn ein Buchungsportal Hotels empfiehlt, hat das Folgen für die Buchenden, für die Hotels, aber auch für die Gesellschaft.

Wenn ein Musikstreamer Playlists kuratiert, verändert er die Kultur, ganz abgesehen von den Gewinnen der Musiker. Wenn ein soziales Netzwerk politische Inhalte priorisiert verändert es den Diskurs und vielleicht Regierungen. So werden Empfehlungen auch zu einer Macht. Zur Macht, die Wahrnehmung und Verhalten steuert. Manche Plattformen nennen das Optimierung. Nur was optimieren sie? Unsere Zufriedenheit oder ihre Profite? Schauen wir auf Tinder oder Instagram. Diese Plattformen empfehlen gar nicht wirklich. Sie dirigieren unseren Konsum. Sie spielen mit unserer Aufmerksamkeit, mit unserem Bedürfnis nach Anerkennung und auch mit unserer Verletzlichkeit. Die Folge ist, wir als Individuum, aber auch als Gesellschaft, verändern uns. Vielleicht sind wir informierter, aber auch manipulierbarer. Vielleicht sind wir vernetzter, aber auch abhängiger. Vielleicht ist manches bequemer, aber auch in den Händen anderer. Und manchmal führt selbst eine gut gemeinte Empfehlung in eine problematische Richtung.

Ein Beispiel, Google experimentierte vor Jahren bereits mit einem als Reinforce genannten Algorithmus, das YouTube-Videos bewusst so auswählte, dass Nutzerinnen und Nutzer neue Horizonte entdecken sollten, also ihren Horizont erweitern sollten für einen größeren YouTube-Konsum. Das Ergebnis, viele blieben länger online, aber nicht, weil sie mehr verstanden, sondern weil sie stärker gefesselt waren. Sie änderten ihre Präferenzen im Sinne der Plattform. Sie haben sich verändert. Empfehlungsethik heißt, wir müssen uns fragen, wer empfiehlt, warum, zu welchem Zweck und mit welchem Ergebnis. Denn wenn Algorithmen unsere Wahrnehmung formen, formen sie letztlich auch uns.

Drittens, digitale Technologie muss Demokratie und Gesellschaft stärken. Die Digitalisierung des frühen Internet, manche von uns wissen, was ich meine, begann einst mit dem Versprechen von Freiheit und dem Zugang zu Information für alle, Kommunikation ohne Grenzen, eine neue Offenheit.

Doch was uns als Befreiung erschien, hat tiefgreifende Konsequenzen in neue Abhängigkeiten, eine Verschiebung der Macht zur Folge her. Einerseits eine Wissensmacht. Wir erleben die berühmte Datifizierung der Gesellschaft. Manche Menschen werden nur mehr zu Daten setzen, Subjekte zu Objekten, Personen zu Produkten. Und aus unserem Verhalten wird Wissen. Dieses Wissen wird zur Ware. Auch dann, wenn wir nicht wissen sollten, zum Beispiel mit wem wir schlafen, wie krank wir sind oder wann wir sterben werden.

Zweitens eine gewisse Marktmacht. Wir erleben einen neuen Merkantilismus. Einen digitalen Merkantilismus. Die wirtschaftliche Macht konzentriert sich in den Händen weniger Plattformen. Google, Amazon, Meta, Tencent. Sie kontrollieren nicht nur Märkte. Sie sind der Markt. Sie beeinflussen, wer in welcher Form Sie beeinflussen auch, wer mit wem im Geschäft treten kann.

Und sie können beobachten, was auf dem Markt gut funktioniert, das Produkt oder die Dienstleistung kopieren und billiger anbieten.

Drittens, daraus resultiert eine Kontrollmacht. Eine Digitalisierung, die zunächst ganz unschuldig wirkt, verschiebt die Kontrolle. Der Smart-Meter. Das E-Auto. Die Schlüssel-APP für ihre Wohnung. Sie alle sammeln Daten, die uns transparent, messbar und berechenbar machen, aber sie erlauben auch eine neue Kontrolle, ob wir fahren dürfen, ob wir Strom bekommen oder ob wir in unsere Wohnung kommen. Diese neuen Kontrolleure sammeln Millionen von Mikromächtigkeiten, so sehr, dass neue geopolitische Fragen auftauchen? Soll der Hersteller eines E-Autos Millionen von Fahrzeugen abschalten können? Soll das Update die Sitzheizung kostenpflichtig machen? Und was macht das Recht mit dieser neuen Welt? Es kämpft mit neuen Begriffen, mit neuen Instrumenten, mit neuen Unsicherheiten.

Der KI-Schriftsatz ist von erstaunlicher Nützlichkeit, aber Recht ist viel mehr, besteht aus Prozessen und Strukturen, es fragt nach Intention, nach Wirkung, es lässt fürchten und es lässt hoffen. 

Das Recht gilt als Macht der Mittellosen, zumindest galt es einmal so, ein Mittel gegen Willkür, gegen die Willkür der Mächtigen. Gilt das auch postdigital? Wir scheinen zumindest in einer digitalen Unrechtssphäre zu leben. KI lernt aus der Vergangenheit, und reproduziert ihre Vorurteile, so gestattet sie unsere Zukunft. Wir leben in einer Zustimmungsfiktion. Ständig klicken wir, ich stimme zu, ohne wirklich zu wissen, was das bedeutet und gegebenenfalls auch ohne wirklich zuzustimmen. Wir sind abhängig von der Macht der Updates. Ein Mausklick und die Spielregeln ändern sich. Einseitig, automatisch und alternativlos. Eine beliebte Funktion verschwindet. Was uns wichtig war, wird nach hinten gereiht. Ein oft genützter Service wird kostenpflichtig. Dafür gibt es neue Features, ob wir sie wollen oder nicht. Also fordern wir ethische KI. Das klingt gut.

Was aber ethisch gilt, wird derzeit von denen definiert, die die Technologie bauen. Dazu kommt ein subtiler, digitaler Normenzwang. Durch ihren ubiquitären Charakter, dadurch dass sie überall ist, kann das Digitale die Norm durchsetzen. Sie kann uns zwingen, den E-Scooter eben nicht in der Fußgängerzone zu benutzen. Sie kann uns zwingen, nicht schneller als erlaubt unterwegs zu sein. Sie kann uns zwingen, mit dem Jackpot nicht über Gewalt, Homosexualität, Bombenbau oder Drogen zu sprechen. Selbst wenn wir nur eine Helpline betreiben wollen oder einen Roman schreiben. Wir stehen zwischen verschiedenen Polen. Auf der einen Seite Autonomie und Freiheit, auf der anderen Seite Befohlen und Kontrolle. Zwischen ihnen entscheidet sich, ob KI unsere Demokratie stärkt oder sie aushöhlt.

Aber viertens, Technologie ist gestaltbar. Wir hören manchmal Die Entwicklung sei nicht aufzuhalten. Das ist falsch. Technologie ist kein Naturereignis. Sie ist gestaltbar.

Wir entscheiden, welche Werte wir in sie einbauen, welche Grenzen wir setzen, welche Ziele wir verfolgen. Das ist der Kern des digitalen Humanismus. Technologie soll den Menschen dienen, nicht umgekehrt. Der digitale Humanismus fragt, wie viel Autonomie wollen wir Maschinen geben?, Wo endet die Unterstützung und wo beginnt Manipulation? Wie viel Nudging ist noch Hilfe? Und ab wann wird sie Paternalismus? Vielleicht müssen wir wieder lernen, Nein zu sagen, wo wir der Technik auch Grenzen setzen. Ein bisschen wie Bartleby, der Schreiber, der auf jede Anweisung nur antwortet, “I would prefer not to”. Ein Nein aus Autonomie und Souveränität, nicht aus Angst. Technologische Selbstbestimmung heißt nicht, Fortschritt zu verweigern, sondern ihn zu gestalten, ihn zum Fortschritt zu machen, zu erklären, dass er Fortschritt ist.

Und fünftens, Maschinen sind keine Menschen und Menschen sind keine Maschinen.

Bei aller Faszination für KI dürfen wir eines nicht vergessen, Menschen und Maschine sind verschieden. Maschinen fühlen nicht, sie wollen nicht, sie verantworten sich nicht. 

Sie haben Daten, sie interpretieren Muster, sie verstehen aber keine Bedeutung.

Das, was uns ausmacht, Empathie, Zweifel, Begehren, Wollen, Verletzlichkeit, entzieht sich oft der Beobachtung und damit auch der Berechnung. Wenn wir tippen, wischen, klippen, dann geben wir Signale, aber keinen Einblick in unsere Bewusstsein. Systeme verwenden Proxys, Annäherungen, sie messen Spuren nicht den Sinn. Das Menschliche liegt gerade in unserer Unvollkommenheit. Vivere militare est, sagt Seneca, Leben heißt Kämpfen. Unsere Verletzlichkeit ist keine Schwäche. Sie ist die Grundlage unseres Zusammenlebens. Aus ihrem Sprint Fürsorge und Gemeinschaft. Der digitale Humanismus erinnert uns, dass Würde, Autonomie, Fairness und Fürsorge nicht verhandelbar sind. Sie sind die modernen Geschwister von Freiheit, Gleichheit und Brüderlichkeit. Prinzipien, die wir ins 21. Jahrhundert bringen müssen.

Was also macht KI mit unserer Gesellschaft? Sie verändert uns. Tief, schnell und unumkehrbar. Aber sie zerstört sie nicht zwangsläufig. Es liegt an uns, ob wir in einer technokratischen oder in einer humanistischen Zukunft leben wollen. KI kann Freiheit erweitern oder sie einschränken. Sie kann helfen, Ungleichheit zu bekämpfen oder sie zu verstärken. Sie kann auch die Demokratie stärken oder sie unterwandeln. Das hängt nicht von den Maschinen ab, es hängt von uns ab. Wenn wir den digitalen Humanismus ernst nehmen, dann heißt das, wir müssen Technik nicht fürchten, aber wir dürfen sie auch nicht vergöttern. Wir müssen sie gestalten, begrenzen und verantwortlich einsetzen, wenn am Ende gilt, nicht die KI entscheidet, was aus unserer Gesellschaft wird, sondern wir.