Die Stiftung Gesundheitswissen warnt indes vor solchen Erwartungen. KI könne zwar auch bei Gesundheitsfragen schnelle Ergebnisse liefern, denen aber nicht blind zu vertrauen sei. „Eine KI-Recherche kann lediglich eine Unterstützung oder erste Orientierung sein, den Besuch beim Arzt kann sie nicht ersetzen“, so die Einschätzung der vom Verband Privater Krankenversicherungen initiierten Organisation, die Tipps zum Umgang mit dem digitalen Hilfsmittel gibt.
Chatbots wie etwa ChatGPT würden mit einer großen Menge an Textdaten aus Webseiten, digitalisierten Artikeln, Büchern und anderen Quellen trainiert, stellt die Stiftung fest. Dabei erfasst die KI demnach Muster unserer Sprache und lernt, Wahrscheinlichkeiten für Wörter und Wortfolgen vorherzusagen. Diese nutzt sie dann, um Antworten auf Nutzeranfragen zu generieren. So beantwortet die KI laut Gesundheitswissen Fragen oder erledigt gleich ganze Arbeitsaufträge, indem sie etwa Inhalte zu bestimmten Krankheiten einfach zusammenstellt. Um die Ergebnisse einzuordnen, ist es aber wichtig zu wissen, dass das digitale Hilfsmittel in seinen Antworten zwar menschlich anmutet, aber nicht wie ein Mensch denkt. Sie versteht die Nutzerfragen und eigenen Antworten nicht, sondern erkennt nur Sprachmuster.
Manchmal baue die KI auch falsche Antworten zusammen, stellt die Stiftung fest. Ob die gelieferten Repliken korrekt sind, überprüfe sie nicht. KI-Chatbots sind demnach zudem darauf programmiert, auf jede Frage eine Antwort zu liefern – auch wenn ihnen keine passenden Informationen dazu vorliegen. Dann erzeugen sie eine sogenannte Halluzination: ein Inhalt, der auf den ersten Blick plausibel klingt, aber frei erfunden ist. Zudem können die Informationen, mit denen die KI trainiert wurde, veraltet sein. gd