• 0 Posts
  • 44 Comments
Joined 2 years ago
cake
Cake day: June 25th, 2024

help-circle



  • Ich grätsche hier mal kurz rein, weil ich glaube, dass der Wille durchaus gut ist, die Technik aber missverstanden. Selbst fine tuned LLMs halluzinieren - und das inhärent. Was sie ausmacht, ist ein gewisses Maß an “textlicher Kreativität”, was, grob gesagt, erstmal nichts anderes ist als dem Zufall folgend bei der Wahl des nächsten Wortes mit Absicht ein nicht wahrscheinlichstes zu nehmen. Das macht sie so beeindruckend, hat aber nun einmal zur Folge, dass Halluzinationen und anderer Quatsch unumgänglich sind. Das ausgerechnet bei psychisch kranken Menschen anzuwenden, erachte ich also als äußerst bedenklich.

    Polemisch-ideologischer Gedanke dazu: Wie die Welt wohl wäre, würde auch nur ein Bruchteil des KI Geldes in Bildung, Wissenschaft und Gesundheit gehen 🙃