Seitenbereiche:
  • zum Inhalt [Alt+0]
  • zum Hauptmenü [Alt+1]

  • Männer
    • Kraftquellen
    • Kraftstoff
    • Podcast
    • Männertage
    • Bücher für Männer
  • Väter
    • Vatertag
    • Vater Kind Wochenenden
    • Vater Kind Aktionen
    • Vätergeschichten
    • Erlebniswelt Kindergarten
  • Glaube
    • Kreuz- und Lebensweg
    • Biblische Begleiter
    • Franz Jägerstätter
    • Perlen des Lebens
  • Veranstaltungen
  • Über uns
  • Mitgliedschaft
  • Shop
Hauptmenü:
  • Männer
    • Kraftquellen
    • Kraftstoff
    • Podcast
    • Männertage
    • Bücher für Männer
  • Väter
    • Vatertag
    • Vater Kind Wochenenden
    • Vater Kind Aktionen
    • Vätergeschichten
    • Erlebniswelt Kindergarten
  • Glaube
    • Kreuz- und Lebensweg
    • Biblische Begleiter
    • Franz Jägerstätter
    • Perlen des Lebens
  • Veranstaltungen
  • Über uns
  • Mitgliedschaft
  • Shop

Hauptmenü ein-/ausblenden
ypsilonartikel
Sie sind hier:
  • ypsilon
  • ypsilonartikel

Inhalt:
zurück
3D illustration of men, robot and factory of future

Künstliche Intelligenz

Y4/2025

 

Ob Industrie, Landwirtschaft, Medien, Medizin oder Haushalt: In nahezu jedem Bereich des menschlichen Lebens eröffnet die Künstliche Intelligenz (KI) neue Möglichkeiten. Was steckt hinter der Technologie, die viel Positives, aber auch große und schwer abschätzbare Risiken mit sich bringt?

 

Als unsere Enkelin kürzlich in ein Spiel vertieft war, stimmte sie fröhlich ein Lied an: „Hey Mira, tanz‘ in den Tag hinein. Du bist unser Sonnenschein.“ Der Text ist auf sie abgestimmt, dazu eine fröhliche Musik. „Wo hast du das entdeckt“, fragte ich sie. „Das hat mein Papa für mich gemacht.“ Das ist ganz einfach, erklärte unser Sohn. „Du gibst in die KI-App Stichworte zur Person ein, was sie gerne macht, was sie schon gut kann, wie sie so drauf ist. Dann sagst du der KI, sie soll daraus einen Liedtext machen. Dann suchst du einen Musikstil aus, Helene Fischer oder Beatles zum Beispiel, und schon spuckt der Computer ein Lied aus.“ Ein wenig Programmierarbeit war trotzdem noch erforderlich, aber das war für den gelernten IT-Techniker ein Klacks.

 

Nachahmung menschlicher Intelligenz

Das Generieren von Liedern ist nur ein kleines Beispiel, was die KI alles kann. Und doch könnte sie die gesamte Musikbranche auf den Kopf stellen. Doch was verbirgt sich hinter dieser Technologie, die im Begriff ist, die Welt zu verändern? KI (im Englischen: AI für „Artificial Intelligence“) ahmt menschliche Intelligenz in bestimmten Bereichen nach: Sie kann lernen, Muster zu erkennen, Schlüsse zu ziehen, Wahrscheinlichkeiten zu errechnen und Vorhersagen zu treffen. KI-Systeme verarbeiten und analysieren riesige Datenmengen, können Probleme eigenständig lösen und ihr Handeln an die jeweiligen Gegebenheiten anpassen. Dadurch unterscheiden sie sich von automatisierten technologischen Vorgängen.

 

Geforscht wird an der KI bereits seit den 1950er-Jahren. Besonders rasant ging die Entwicklung in den vergangenen drei Jahrzehnten voran. Das sei vor allem drei Aspekten zu verdanken, sagt Bernhard Moser, Präsident der Austrian Society for Artificial Intelligence (ASAI): Algorithmen, die Grundlage für KI, wurden immer weiter verbessert. Riesige Datenmengen, notwendig um KI-Systeme zu trainieren, wurden verfügbar. Und die Rechenkapazitäten von Computern haben sich massiv erhöht.

 

Erstmals ins Bewusstsein der breiten Masse rückte sie vor rund fünfzehn Jahren, als Sprachassistenten wie Siri oder Alexa in private Haushalte einzogen. Der große Durchbruch gelang 2022 mit der Veröffentlichung von ChatGPT. Innerhalb weniger Monate erreichte das kostenlose Sprachmodell hundert Millionen Nutzer. Längst ist ChatGPT nicht mehr das einzige leicht zugängliche generative KI-System. Unterschiedlichste KI-Software ermöglicht es, auch ohne ausgeprägtes technisches Know-how binnen weniger Sekunden Texte und Bilder, Musik, Video- und Audioaufnahmen zu generieren. Heute ist KI in fast allen Lebensbereichen angekommen und vielfach nicht mehr wegzudenken.

 

Auf Heilung programmiert

Künstliche Intelligenz hat zum Beispiel das Potenzial, das Gesundheitswesen grundlegend zu optimieren. Sie ist bei komplizierten Eingriffen Mitglied im Operationsteam und kann den Chirurgen durch Echtzeitanalyse des Operationsfeldes auf sensible anatomische Strukturen hinweisen oder mit höchster Präzision einen Tumor entfernen, weil sie vorher anhand unzähliger Bilder gelernt hat, wie so ein Tumor aussieht. Sie erstellt Diagnosen, weil sie die weltweiten Daten hunderttausender Krankheitsbilder gelernt hat und diese in Sekundenschnelle abrufen und vergleichen kann. Sie erkennt Zellveränderungen und kann einen besonders frühen Hinweis auf eine entstehende Krebserkrankung liefern und damit Behandlungen ermöglichen, bevor die Erkrankung ein lebensbedrohliches Stadium erreicht hat. Sie unterstützt die Ärzte bei der Wahl einer speziell auf die konkrete Person angepasste Behandlung, etwa wenn die Frage auftaucht, ob ein Patient mit akuter Leukämie sehr früh eine Knochenmarktransplantation braucht oder ob eine Chemotherapie reicht. Denn die KI kann in kurzer Zeit voraussagen, ob eine Genveränderung auf eine aggressive oder weniger aggressive Krebsform hindeutet.

 

Die Letztentscheidung obliegt immer noch dem Arzt. Er bringt fachliche Kompetenz und viel Erfahrung mit, kann in Interaktion mit den Patienten treten und genießt deren Vertrauen. Die KI ist keine Konkurrentin in der medizinischen Praxis, sondern eine wertvolle Assistentin. Und sie muss in enger Kooperation mit Fachexpertise entwickelt und auch immer wieder aktualisiert werden, um eine hohe Genauigkeit der Verfahren zu gewährleisten.

 

Unterstützung in der Arbeitswelt

KI-unterstützte Systeme lohnen sich vor allem dort, wo Unternehmen mit viel Formularen, Daten und gleichbleibenden Abläufen arbeiten, wie das Einbuchen von Bestellungen, das Generieren von Rechnungen, das Erfassen gelieferter Produkte und die optimale Weiterverarbeitung im Produktionsprozess selbst. Aber auch die Kommunikation mit Kunden wird zunehmend automatisiert. Bei einer Telefonhotline etwa kann eine KI-gestützte Service-Management-Software einen Großteil der immer wieder gestellten Fragen abklären. Die Kunden werden per Chatbot Schritt für Schritt bei der Problemlösung angeleitet. Und wenn das nicht zum Ziel führt und ein echter Servicetechniker eingreifen muss, sieht er schon, was der Chatbot empfohlen, aber nicht funktioniert hat.

 

Es erscheint sinnvoll, Routinearbeiten von Maschinen erledigen zu lassen. Das war auch bisher so, wenn etwa Roboter in menschenleeren Hallen Autos zusammengebaut haben. Die KI greift jetzt auch in Bereiche ein, die bislang den Menschen vorbehalten waren. Kein Wunder, dass 42 Prozent Angst davor haben, durch KI ihre Arbeit zu verlieren, wie eine Umfrage des Beratungsunternehmen Boston Consulting Group vom Sommer 2024 zeigt.

 

Auswirkungen auf die Medien

Die KI kann für die Medien in vielen Belangen hilfreich sein, etwa bei der Vorrecherche für Artikel, bei der Transkription von Interviews, zur Zusammenfassung von Studien oder wenn man in der Endredaktion griffige Titel sucht. Sie sitzt quasi als Assistentin am Redaktionstisch, hätte allerdings das Potenzial, selbst ganze Artikel zu schreiben – und das in einer Qualität, wo Sie als Leser kaum mehr erkennen können, dass der Text von der KI kommt.

 

Anders ist das mit dem Wahrheitsgehalt der Informationen. Es ist entscheidend, dass die generierten Informationen von seriösen Journalisten vor einer Veröffentlichung geprüft werden. Und genau hier ist die Branche in einer Zwickmühle. Abozahlen schrumpfen und ein Großteil der Werbegelder fließt an einige wenige US-Tech-Giganten wie Amazon, Google oder Meta. Viele Journalisten werden aufgrund des wirtschaftlichen Druckes gekündigt, vielfach fehlt die Zeit einer seriösen Überprüfung. Die Folge: Was die KI ausspuckt, kommt oft ungefiltert ins Blatt und ins Internet.

 

Europol warnte bereits 2022, dass schon bald der Großteil der Inhalte im Internet nicht mehr von Menschen gemacht sein könnten. KI könnte damit das Internet als Informationsquelle wertlos machen – weil sie einfach etwas erfindet und weil sie immer schlechtere Antworten liefert, je mehr sie auf KI-Inhalte zurückgreift. Ähnlich wie bei der stillen Post wird das Bild immer verzerrter, je länger wir spielen.

 

Gefahr für die Demokratie

Unser Handeln im Internet macht uns zu gläsernen Menschen. Wenn wir ein Schlagwort in eine Suchmaschine eingeben, on-line einkaufen oder auf den digitalen Plattformen posten, entsteht ein digitaler Fußabdruck. Die KI kann diese Informationen über uns im Netz abgreifen und uns gezielt Werbung einspielen.

 

Dieses Persönlichkeitsprofil wird zunehmend auch von politischen Parteien als Basis für Wahlkampfstrategien genutzt. Wir bekommen etwa Wahlvideos eingespielt, die uns besonders ansprechen. So entstehen sogenannte „Echokammern“ und „Filterblasen“ – virtuelle Räume, in denen Menschen durch personalisierte Inhalte immer wieder mit Informationen konfrontiert werden, die ihre eigenen Meinungen bekräftigen, anstatt sie zu hinterfragen. Der öffentliche Diskurs wird dadurch aufgesplittert, die Polarisierung in der Gesellschaft verstärkt und der Dialog zwischen den politischen Lagern erschwert. Wähler, die in ihrer Filterblase gefangen bleiben, zeigen keine Bereitschaft mehr, andere Ansichten zu hören.

 

Das hat massive Auswirkungen auf die Demokratie. Mit KI können Kampagnen erstellt werden, die Menschen vom Wählen abhalten oder sie für die Wahl mobilisieren, je nachdem, was der Partei laut unserem Persönlichkeitsprofil dienlich ist. Sie können ein Gefühl von Unsicherheit aufbauen, das eine Partei anschließend mit einfachen Botschaften bedient. Wer die spitzfindigeren IT-Spezialisten, die präzisesten Daten und die besten Algorithmen besitzt, der macht das Rennen. Ziel ist nur, gewählt zu werden, und nicht, die beste Lösung für das Land und die Menschen zu finden. Denn dafür braucht es den Diskurs mit den Menschen und nicht die Polarisierung.

 

Fälschungen und Fake News

Besonders brisant wird es, wenn Fake News (gefälschte Nachrichten) und Deepfakes (tiefgreifende Fälschungen) ins Spiel kommen. KI-gestützte Programme können Nachrichten verfassen, die auf den ersten Blick unfassbar glaubwürdig erscheinen, inhaltlich aber völlig falsch sind. Dazu werden täuschend echte Bilder generiert und Videos mit den Stimmen konkreter Personen hinterlegt.

 

Auch Papst Leo XIV wurde Opfer solcher Manipulationen. Seit seiner Wahl überschwemmen KI-generierte Deep-Fake-Videos das Netz. Die Nachrichtenagentur Agence France Presse identifizierte in einer Recherche Dutzende YouTube- und TikTokKanäle, die falsche Predigten unter dem Namen und mit der Stimme des neuen Pontifex verbreiteten und ein Millionenpublikum erreichten. Gläubige fallen reihenweise auf die Fälschungen herein, sogar dann, wenn die Videos als KI-generiert gekennzeichnet sind. Und auch wenn Fälschungen enttarnt werden, verbreiten sie sich rasend schnell.

 

Es ist zu befürchten, dass dies erst der Anfang eines massiven Problems ist, das auf die Gesellschaft und die Kirche zukommt, weil die Glaubwürdigkeit der Medien, der politischen Kommunikation und der religiösen Verkündigung gefährdet ist. Wem kann man dann noch vertrauen, wem noch glauben?

 

Medienkompetenz und -regulierung

In diesem Zusammenhang wird immer wieder auf die Medienkompetenz verwiesen. Man müsse Texte, Bilder oder Videos kritisch auf ihren Wahrheitsgehalt hinterfragen, indem man verschiedene, vertrauenswürdige Medienangebote nutzt und Quellen überprüft. Man könnte etwa auf der Parlamentswebseite nachsehen, was dort zu einem bestimmten Thema zu finden ist, oder auf „vatican.va“, wo alle Reden, Ansprachen und Texte von Papst Leo XIV. vollständig eingesehen werden können. Das wird bei sensationellen Online-Inhalten am Rande der Glaubwürdigkeit vielleicht funktionieren. In einer zunehmend komplexen digitalen Welt wird man es nicht alleine den Medienkonsumenten überlasse können, zwischen Wahrheit und Fälschung zu unterscheiden.

 

Die EU hat mit dem „AI-Act“ ein umfassendes Regelwerk für den Umgang mit KI vorgelegt. Darin wird ein risikobasierter Ansatz verfolgt. Je gefährlicher der Einsatzbereich, umso strenger die Regeln: Texte, Bilder oder Videos, die mit KI erzeugt oder inhaltlich verändert wurden, müssen gekennzeichnet werden. Für Systeme, die allgemein verwendet werden, etwa ChatGPT, gelten Dokumentations- und Nachweispflichten. Wie man Verstöße zu ahnden gedenkt, wird sich zeigen.

 

Mensch oder Maschine?

Wie angemessen ist es, diese Systeme als „intelligent“ zu bezeichnen? Sind Maschinen mittlerweile so vernunftbegabt wie Menschen? Sind sie fähig, aufgrund rationaler Entschlüsse und ethischer Abwägungen Entscheidungen zu treffen? „Nein“, sagt Bernhard Moser. „Menschliches Denken zeichnet sich durch eine große Flexibilität aus. Menschen erfassen rasch Kontexte, finden sich in neuen Situationen schnell zurecht und können vor allem kritisch hinterfragen.“ Maschinen können das nicht in diesem Ausmaß. KI-Systeme basieren auf Algorithmen, die Muster in Daten erkennen. Sie arbeiten nur in jenen Bereichen effizient und zuverlässig, für die sie trainiert wurden. Der Begriff „KI“ ist daher umstritten, weil er suggeriert, menschliche und künstliche Intelligenz seien einander ähnlich.

 

Dennoch wird intensiv daran geforscht, die KI empathisch zu machen. Eine Maschine kann jedoch menschliche Gefühle nur imitieren. Wenn sie das perfekt macht, wird man vielleicht einmal keinen Unterschied mehr erkennen. Diese Form der Täuschung kann dazu führen, dass man den Bezug zur Realität und zu den Menschen verliert und dann lieber mit der KI plaudert als mit der eigenen Frau. Kinder sind hier besonders gefährdet, weil sie in ihrer Persönlichkeit noch nicht gefestigt sind.

 

Fragen der Ethik

Nicht zuletzt tun sich viele ethische Fragen auf. Wer hat Zugang zur Technologie und wer kontrolliert das alles? Mit welchen Informationen wird die KI trainiert und welche Auswirkungen hat das auf die Ergebnisse von Abfragen? Was bedeutet das für Urheberrechte? Wie kann ich meine Daten schützen? Auf viele dieser Fragen gibt es nur unzureichende Antworten. Ethisch bedenklich ist vor allem der Einsatz von KI-gestützten Drohnen im Krieg.

 

Eine zentrale Sorge ist wohl die, ob man sich fürchten muss, dass sich Maschinen irgendwann gegen Menschen richten. Diese Frage kann Bernhard Moser nicht mit einem eindeutigen Nein beantworten: „Der Grad der Autonomie von KI-Systemen wird tatsächlich immer größer.“ Laut US-Wissenschaftlern könnte in nicht allzu ferner Zeit eine Technologie bereitstehen, die erkennt, dass sie die Menschheit und ihre ständigen Regulierungen nicht mehr braucht. Umso wichtiger erscheint es, dass die Richtlinien des „AI-Act“ der EU rasch und konsequent umgesetzt werden – und das nicht nur in Europa.

 

In die Pflicht seien da alle genommen: Politik, Wissenschaft, Zivilgesellschaft. „Angst ist aber ein schlechter Ratgeber“, so Moser. Wichtig sei, mündig zu sein, Verantwortung zu übernehmen und Technologien immer zum Wohle von Menschen zu entwickeln und einzusetzen. Es brauche eine ausgewogene Sichtweise, die das positive Potenzial in vielen Bereichen würdigt und zugleich mögliche Risiken in Betracht zieht und Missbrauch einschränkt.

 

Autoren: Christian Brandstätter unter Mitarbeit von Sandra Lobnig und Sylvia Neubauer

zurück

nach oben springen
Footermenü:
  • Männer
  • Väter
  • Glaube
  • Veranstaltungen
  • Über uns
  • Mitgliedschaft
  • Shop

Impressum | Datenschutz | Cookie-Richtlinie

kmb@dioezese-linz.at
+43 732 7610-3461, Fax -3779
Kapuzinerstraße 84, 4020 Linz
nach oben springen