{"id":9344,"date":"2025-10-27T10:45:28","date_gmt":"2025-10-27T14:45:28","guid":{"rendered":"https:\/\/aktiengurus.com\/?p=9344"},"modified":"2025-10-27T10:45:28","modified_gmt":"2025-10-27T14:45:28","slug":"neue-studie-enthuellt-massive-fehler-bei-ki-systemen","status":"publish","type":"post","link":"https:\/\/aktiengurus.com\/?p=9344","title":{"rendered":"Neue Studie enth\u00fcllt massive Fehler bei KI-Systemen"},"content":{"rendered":"\n<p>Eine aktuelle Untersuchung der <strong>Europ\u00e4ischen Rundfunkunion (EBU)<\/strong> wirft ein kritisches Licht auf den Umgang mit <strong>k\u00fcnstlicher Intelligenz<\/strong> im Alltag. Die Ergebnisse zeigen, dass bekannte <strong>KI-Chatbots<\/strong> wie <strong>ChatGPT, Gemini, Claude<\/strong> oder <strong>Microsoft Copilot<\/strong> in bis zu <strong>vier von zehn F\u00e4llen falsche Informationen<\/strong> liefern \u2013 h\u00e4ufig in einer Art und Weise, die f\u00fcr Laien kaum als Fehler zu erkennen ist.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Chatbots erfinden Fakten mit erstaunlicher \u00dcberzeugungskraft<\/strong><\/h3>\n\n\n\n<p>Im Rahmen der Studie wurden \u00fcber <strong>68 Rundfunkanstalten aus 56 L\u00e4ndern<\/strong> beteiligt, die systematisch die Verl\u00e4sslichkeit g\u00e4ngiger KI-Anwendungen \u00fcberpr\u00fcften. Dabei fiel auf, dass die Programme nicht nur fehlerhafte Angaben machen, sondern oft auch <strong>vollst\u00e4ndig erfundene Quellen<\/strong> nennen, um Glaubw\u00fcrdigkeit zu erzeugen.<\/p>\n\n\n\n<p>Die Beispiele reichen von simplen Irrt\u00fcmern bis zu gravierenden Falschmeldungen: So erkl\u00e4rte ein Chatbot, <strong>Papst Franziskus sei verstorben<\/strong>, w\u00e4hrend ein anderer behauptete, <strong>Schweden sei kein NATO-Mitglied<\/strong>. Selbst bei politischen Themen entstehen absurde Verzerrungen \u2013 etwa, wenn Google Gemini die <strong>Wiederwahl von Donald Trump<\/strong> als \u201ezuk\u00fcnftiges Ereignis\u201c beschreibt, obwohl diese l\u00e4ngst erfolgt ist.<\/p>\n\n\n\n<p>\u201e<strong>Die Systeme sind rhetorisch \u00fcberzeugend, aber sachlich unzuverl\u00e4ssig<\/strong>\u201c, sagt <strong>Professor Peter Posch<\/strong> von der Technischen Universit\u00e4t Dortmund. \u201e<strong>Gerade unerfahrene Nutzer k\u00f6nnen kaum unterscheiden, was echt und was erfunden ist.<\/strong>\u201c<\/p>\n\n\n\n<p>Das Ph\u00e4nomen, das Fachleute als <strong>\u201eHalluzination\u201c<\/strong> bezeichnen, beschreibt die F\u00e4higkeit von KI-Systemen, frei erfundene Inhalte zu generieren, die logisch klingen, aber keine Grundlage in der Realit\u00e4t haben.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Wenn Maschinen die Wahrheit beugen<\/strong><\/h3>\n\n\n\n<p>Die zunehmende Nutzung von Chatbots als Informationsquelle birgt erhebliche gesellschaftliche Risiken. Immer mehr Menschen beziehen ihre Nachrichten direkt von <strong>KI-Systemen<\/strong>, ohne die Angaben zu \u00fcberpr\u00fcfen. Dadurch verbreiten sich <strong>Desinformationen<\/strong> rasant \u2013 in sozialen Medien, in Schulen und sogar im \u00f6ffentlichen Diskurs.<\/p>\n\n\n\n<p>Viele Nutzer glauben, dass K\u00fcnstliche Intelligenz objektiv arbeitet und keine Fehler macht. Dieser Irrglaube f\u00fchrt dazu, dass erfundene Inhalte unreflektiert weitergegeben werden. <strong>\u201eKI hat keine Moral, kein Wissen und kein Bewusstsein \u2013 sie kombiniert nur Wahrscheinlichkeiten\u201c<\/strong>, warnen Experten.<\/p>\n\n\n\n<p>Sch\u00fcler \u00fcbernehmen fehlerhafte Inhalte in Schulaufs\u00e4tze, Studierende zitieren unzuverl\u00e4ssige Quellen, und B\u00fcrger f\u00e4llen politische Entscheidungen auf Basis unzutreffender Aussagen. So wird eine Technologie, die eigentlich Wissen vermitteln soll, zunehmend zum <strong>Katalysator f\u00fcr Verwirrung und Manipulation<\/strong>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Seri\u00f6se Medien verlieren an Vertrauen<\/strong><\/h3>\n\n\n\n<p>Besonders problematisch ist, dass Chatbots immer wieder behaupten, ihre Informationen stammten von <strong>ARD, ZDF<\/strong> oder anderen anerkannten Nachrichtenquellen \u2013 obwohl diese nie entsprechende Berichte ver\u00f6ffentlicht haben. Dadurch untergraben KI-Systeme das Vertrauen in den <strong>seri\u00f6sen Journalismus<\/strong>.<\/p>\n\n\n\n<p>Die EBU untersuchte hunderte von Fragen aus Bereichen wie <strong>Geschichte, Wissenschaft und aktuelle Politik<\/strong>. Keine der getesteten KIs konnte durchgehend korrekte Antworten liefern. Die Fehlerquoten schwankten zwischen <strong>15 und 40 Prozent<\/strong>, je nach Themengebiet.<\/p>\n\n\n\n<p>F\u00fcr Medienh\u00e4user ist das ein wachsendes Problem: Wenn Falschmeldungen im Namen renommierter Sender verbreitet werden, ger\u00e4t ihre Glaubw\u00fcrdigkeit in Gefahr \u2013 ein Risiko, das durch den unkontrollierten Einsatz von KI noch zunimmt.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Die Ursache liegt in der Technik<\/strong><\/h3>\n\n\n\n<p>Der Grund f\u00fcr die hohe Fehlerquote ist strukturell: KI-Chatbots <strong>verstehen keine Inhalte<\/strong>, sondern berechnen nur, welche W\u00f6rter wahrscheinlich zueinander passen. Sie bilden Sprachmuster ab, aber kein tats\u00e4chliches Wissen.<\/p>\n\n\n\n<p>\u201e<strong>KI kann nicht denken, sie kann nur sch\u00e4tzen<\/strong>\u201c, erkl\u00e4ren Fachleute. Dadurch entstehen Aussagen, die zwar plausibel klingen, aber keinerlei Faktenbasis haben. Die gro\u00dfen Tech-Konzerne versuchen, das Problem durch <strong>bessere Trainingsdaten<\/strong> und <strong>automatische Faktenpr\u00fcfung<\/strong> zu mildern, doch die sogenannten <strong>Halluzinationen<\/strong> bleiben eine <strong>grunds\u00e4tzliche Schw\u00e4che der Technologie<\/strong>.<\/p>\n\n\n\n<p>Trotz Milliardeninvestitionen in Entwicklung und Optimierung k\u00f6nnen Chatbots bisher nicht zuverl\u00e4ssig zwischen Wahrheit und Fiktion unterscheiden.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Vorsicht im Umgang mit KI-Systemen<\/strong><\/h3>\n\n\n\n<p>Die <strong>Europ\u00e4ische Rundfunkunion<\/strong> empfiehlt daher einen bewussten und kritischen Umgang mit KI-Anwendungen. Nutzer sollten <strong>wichtige Informationen immer verifizieren<\/strong>, anstatt sich ausschlie\u00dflich auf Chatbots zu verlassen. F\u00fcr Nachrichten, politische Entscheidungen oder medizinische Ratschl\u00e4ge seien <strong>journalistisch gepr\u00fcfte Quellen<\/strong> unverzichtbar.<\/p>\n\n\n\n<p>In Schulen und Hochschulen m\u00fcsse zudem st\u00e4rker auf <strong>digitale Bildung<\/strong> und <strong>Medienkompetenz<\/strong> gesetzt werden. Sch\u00fcler und Studierende sollen lernen, KI-generierte Inhalte zu hinterfragen und den Wahrheitsgehalt zu pr\u00fcfen.<\/p>\n\n\n\n<p>Auch Regierungen reagieren: Die <strong>Bundesregierung<\/strong> plant Kampagnen zur Aufkl\u00e4rung \u00fcber die Risiken k\u00fcnstlicher Intelligenz. Doch viele Experten warnen, dass diese Ma\u00dfnahmen zu sp\u00e4t kommen \u2013 denn Millionen Menschen nutzen die Systeme l\u00e4ngst t\u00e4glich, ohne die Gefahren zu kennen.Bis sich die Technologie weiterentwickelt, gilt: <strong>KI ist ein n\u00fctzliches Werkzeug f\u00fcr kreative Aufgaben, nicht aber f\u00fcr die Wahrheitssuche.<\/strong> Wer sich seri\u00f6s informieren will, sollte auf <strong>menschlich gepr\u00fcfte Nachrichtenquellen<\/strong> setzen, die Verantwortung \u00fcbernehmen und Fakten verifizieren.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Eine aktuelle Untersuchung der Europ\u00e4ischen Rundfunkunion (EBU) wirft ein kritisches Licht auf den Umgang mit k\u00fcnstlicher Intelligenz im Alltag. Die Ergebnisse zeigen, dass bekannte KI-Chatbots wie ChatGPT, Gemini, Claude oder Microsoft Copilot in bis zu vier von zehn F\u00e4llen falsche Informationen liefern \u2013 h\u00e4ufig in einer Art und Weise, die f\u00fcr Laien kaum als Fehler [&hellip;]<\/p>\n","protected":false},"author":6,"featured_media":9345,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[310,312,311],"tags":[3845,3846,3847,3851,3850,3852,3848,379,2503,3849],"class_list":["post-9344","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-panorama","category-technik","category-unternehmen","tag-chatbots","tag-chatgpt","tag-desinformation","tag-ebu","tag-faktenpruefung","tag-falschinformationen","tag-halluzination","tag-ki","tag-kuenstliche-intelligenz","tag-medienkompetenz"],"_links":{"self":[{"href":"https:\/\/aktiengurus.com\/index.php?rest_route=\/wp\/v2\/posts\/9344"}],"collection":[{"href":"https:\/\/aktiengurus.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aktiengurus.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aktiengurus.com\/index.php?rest_route=\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/aktiengurus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=9344"}],"version-history":[{"count":1,"href":"https:\/\/aktiengurus.com\/index.php?rest_route=\/wp\/v2\/posts\/9344\/revisions"}],"predecessor-version":[{"id":9346,"href":"https:\/\/aktiengurus.com\/index.php?rest_route=\/wp\/v2\/posts\/9344\/revisions\/9346"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aktiengurus.com\/index.php?rest_route=\/wp\/v2\/media\/9345"}],"wp:attachment":[{"href":"https:\/\/aktiengurus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=9344"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aktiengurus.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=9344"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aktiengurus.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=9344"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}