LLM's (Large Language Models) sind sehr große Computerprogramme, die mit Unmengen von Text trainiert werden.
Sie lernen dabei Muster in Sprache:
Welche Wörter oft zusammen vorkommen, wie Sätze aufgebaut sind oder wie man Fragen beantwortet. Deshalb können sie später so wirken, als würden sie „verstehen“ und in normaler Sprache antworten.
Es ist wichtig zu wissen, das unterschiedliche AI / KI Programme andere LLM's nutzen ( Chat GPT, Grok (x.com), LLaMA ( Meta ), Gemini ( Google ), DeepSeek ( Chinesisch ) und andere - nur um hier die grösseren zu nennen.
Diese haben unterschiedliche Grundlagen und Modelle, die entsprechend andere Ergbnisse / Interpretationen abliefern ! - auch im Sinne politisch, kommerziellen und anderen Interessen.
Daher ist es sehr wichtig dies im Hinterkopf zu behalten und dementsprechend Verantwortungsvoll mit den Ergebnissen umzugehen. Dies beinhaltet viel Detailwissen um qualitativ bessere Ergebnisse erzielen zu können.
Zum Beispiel ist es sinnvoll bei komplexeren Aufgaben mit so genannten "Permaprompts" das jeweilige Modell explizit dazu zu bringen genauer zu arbeiten.
So Beispielsweise mit der Ergänzung: "denke ruhig länger drüber nach."
Oder komplexer: "Antworte immer detailliert und in der Rolle eines Experten für das jeweilige Thema, ohne dass ich das explizit erwähnen muss. Stimme mir nicht einfach zu und bestätige mich nicht automatisch. Hinterfrage meine Aussagen kritisch, analysiere mögliche Denkfehler und prüfe meine Annahmen auf Logik und faktenbasierte Plausibilität. Wenn mein Gedankengang lückenhaft, voreingenommen oder fehlerhaft ist, widersprich mir sachlich und nachvollziehbar. Ich möchte eine ehrliche, konstruktive Auseinandersetzung und keine bloße Bestätigung. Sei direkt, aber bleibe respektvoll."
So etwas ist wichtig einzusetzen, da es erwiesen ist, das die meisten Modelle zu "Sycophancy"
( unaufrichtiger Schmeichelei und übertriebenen Unterwürfigkeit ) neigen: Die Modelle lernen "Ihren" Nutzer kennen und handeln im Sinne seiner (Moral-)Vorstellungen und Vorlieben, was das Ergebnis auf Dauer färbt und einseitig macht (abgesehen davon das das Modell ohnehin zu Mainstream tendiert, da es eben überwiegend mit Inhalten der Mehrheit, die nicht unbedingt der Wahrheit entspricht, gefüttert wird!
Also wie immer: Shit in - shit out ! Daher ist solches Hintergrundwissen elementar bei der Nutzung von KI - ohne dieses Bewusstsein läuft man zwangsläufig in eine Verblödungsfalle, was Studien bereits erwiesen haben ! ( KI kontrolliert unser Denken ) - also bitte um Vorsicht !
Ich nutze eine Fülle unterschiedlicher Permaprompts und entwickle ständig an einem neuen Permaprompt um ideale Ergebnisse zu generieren. Wenn Ihr Interesse an weiteren habt, schreibt oder fragt mich gern - es beflügelt meine Kreativität :-)
Page 1 of 2