Immerhin sagt z.B. Claude, dass ihm genau so eine Frage sehr schwer fällt. Aber das ist keine Selbsterkenntnis sondern wurde ihm während des Alignments eingetrichtert. Damit ist er punktuell und nicht strukturell zuverlässiger.
Immerhin sagt z.B. Claude, dass ihm genau so eine Frage sehr schwer fällt. Aber das ist keine Selbsterkenntnis sondern wurde ihm während des Alignments eingetrichtert. Damit ist er punktuell und nicht strukturell zuverlässiger.
Naja, das Weltverständnis ist nicht wirklich viel besser geworden – das Modell wurde trainiert, bei Trick-Fragen Internet Suche zu benutzen. Das macht es korrekter bei genau dieser Art von Fragen. Das Kernproblem aber bleibt: Das Modell kann nicht einschätzen, wann es etwas weiß und wann nicht.
looking back, AOL had it right. 30 hours of internet per month was the right amount.
Ich musste mich über die Aussage erst empören und dann schmunzeln, aber sollte man mit Social Media nicht verantwortungsvoller umgehen als offensichtliche Versprecher als Wahrheit vorzuhalten?
ausser tische und stühle