Diskussion:Halluzination (Künstliche Intelligenz)
Der bisher verwendete Begriff Halluzination hat den Vorteil, dass er in mehreren Sprachen bereits vor KI eine Bedeutung für menschliche Täuschung hatte. Ob deutschsprachig Bullenkot, respektive Scheisse geeigneter ist, bezweifle ich. Gut formuliert aber fehlerhaft ist nach meiner Meinung nicht mit Bullshit gleichzusetzen. --BBCLCD (Diskussion) 22:03, 11. Jun. 2024 (CEST) Gefährliche Täuschungen sind Falschaussagen eines KI-Models, welche die meisten Leute nicht als solche erkennen können. Erkennbare Blödeleien oder klarer Unsinn entsprechen eher dem Gebrauch von Bullshit im amerikanischen Englisch.--BBCLCD (Diskussion) 10:52, 12. Jun. 2024 (CEST) Beantworten
@BBCLCD: Ich verstehe deine Ergänzung nicht ganz. Was sind "Varianten von Vorkommen"? "Vorkommen" von was? Gestumblindi 15:05, 24. Feb. 2025 (CET) Beantworten
- Vorkommen sind echte, reale, bekannte Dinge, welche in Wirklichkeit vorkommen. Dies im Gegensatz zu KI-Halluzinationen, welche offensichtlich nicht zutreffende, falsche Aussagen machen und echte Vorkommen vortäuschen. In der angegebenen Referenz wird von Unrealities gesprochen: Dreaming up riots of unrealities that help scientists track cancer, design drugs, invent medical devices, uncover weather phenomena and even win the Nobel Prize. Generative KI-Modelle können in der Lage sein, bisher unbekannte Varianten von Vorkommen zu entdecken, welche sich nach Abklärungen als neuentdeckte, echte Vorkommen erweisen können.--BBCLCD (Diskussion) 17:15, 24. Feb. 2025 (CET) Beantworten
- Danke für die Erläuterung und vor allem die Ergänzung im Artikel, durch die es nun verständlicher wird. Gestumblindi 22:44, 24. Feb. 2025 (CET) Beantworten