Na Luttyy, machen dir deine Kistchen auch so nette Vorschläge?
Soll angeblich aber schon gefixt sein. Also weiter besinnlich bleiben...
Gruß
Mups
Na Luttyy, machen dir deine Kistchen auch so nette Vorschläge?
Soll angeblich aber schon gefixt sein. Also weiter besinnlich bleiben...
Gruß
Mups
der Mensch ist dumm, weil er der KI nicht genügend Daten gibt.
Die Daten (hier: Text zur Beschreibung der "Challange") hätten im vorliegenden Fall ausgereicht um zu erkennen, dass das das gefährlich ist. Für einen (normalen) erwachsenen Menschen. Der Inhalt wurde allerdings nicht verstanden. Wenn Du "nur" zufällig aus einer Liste von (menschlich) redaktionell ausgewählten "Challanges" auswählst, dann ist das nicht mal mit größtem Marketing-Optimusmus noch etwas was man "KI" nennen kann...
Eine KI wird immer ergebnisorientiert handeln, ausgehen von den ihr zur Verfügung stehenden Parametern.
"KI"-Systeme sind (i.d.R.) Blackboxen, die auf einen bestimmten Eingabe-Ausgabe-Zusammenhang trainiert wurden und in Testszenarien "hinreichend gut" funktioniert haben. Da weiß dann am Ende keiner, warum es funktioniert oder vor allem auch warum konfrontiert mit unbekannten Mustern totaler Unsinn rauskommt.