Wir sehen uns auf der anderen Seite!
Wir sehen uns auf der anderen Seite!
fühle ich. habe es selbst nur mit einem geschafft und das war der König mit zwei Nuklearwerfern am Schluss 😅
Rate mal, wer Schuld ist 😉
Man darf auch nie vergessen, dass der Zugang zum Fediverse und dann Feddit halt…speziell ist. Wenn man es nicht vorher kannte, oder durch den Reddit-Breakdown gefunden hat, ist es sehr unwahrscheinlich, dass man hier landet.
What are you talking about lol
Endlich: die verbotene Zwischenstufe nach linksradikal und linksextrem: Hyperlinks!
Die Sportfreunde Stiller haben damals schon die DTicket-Preise prognostiziert:
54, 74, 90, …
Nach Pagern und Walkie Talkies…
rentnerfahreninrentner
Ach naja. Es ist Aufgabe der Politik die Leute für diese Themen empfänglich zu machen und die Vorteile aufzuzeigen. Oder eben zu verdeutlichen, was ein Nichtstun mit sich bringen wird. Wo sind denn die großen Anstrengungen der Ampel hinsichtlich Klima? Das ist doch nicht mal die Mindestagenda die bisher vorgeschlagen noch umgesetzt wurde. Wenn Grüne und Co bei jedem Gegenwind einknicken, braucht sich niemand wundern wenn die reaktionären Kräfte das ausnutzen.
Ich trage einen Bart, weil ich bei der Taliban gut ankommen will.
(In Minecraft)
Gertrud, komm schnell!! Arnold Schwarzenegger hat auf meinen Kommentar geantwortet!
Die Antwort:
Thanks. I originally meant that as a joke but thanks anyway 😅
Naja man muss halt auch verstehen warum und wie solche Modelle funktionieren. Der Fall hier zeigt vor allem, dass der Nutzer das nicht weiß. Es wird noch einige Zeit benötigen, bis Normalbürger mit diesen Tools umgehen können. Ich meine das nicht als Beleidigung, sondern einfach als Feststellung. Selbst die Bezeichnung LLMs würden halluzinieren ist im Grunde faktisch falsch. Ebenso, wie zu glauben, die Modelle könnten rechnen. Um es einfach auszudrücken: für solche Modelle sind alle Wörter und Zeichen nur Tokens (drei, 3, !, Haus und 🤡). Für jeden Token wird für jede Position im Satz eine Wahrscheinlichkeit und eine weitere Gewichtung errechnet (sehr vereinfacht) mit dem Ziel, den jeweils nächsten Token zu „erraten“. Würdest du ein neues Modell trainieren, bei dem hinreichend oft nach einem = das Wort Bierkasten auftaucht, würdest du für 1+1= dann Bierkasten mit hoher Wahrscheinlichkeit als nächsten Token vorhergesagt bekommen. Diese Modelle haben keine analytische Intelligenz und kein Konzept von unserem Weltwissen. Wenn man sich fragt: aber wieso kann es mir bei Bing dann eine Antwort geben? Weil die entsprechende Prompts haben, die das Modell anleiten eine Aktion auszuführen und dann aus einer Datenbank oder per Internetsuche die Antwort suchen.
Wen es wirklich interessiert, der sollte sich mal ein non-instruct Modell anschauen (zb Llama 3), welches nicht für diese Chatähnliche Interaktion finegetunt wurde. Dann sieht man das deutlicher.
Oh I remember these. It was hard to get to a seat on the school bus because there were cables connected all across the aisles.
Tageslicht gibt’s auch noch um 14 Uhr. Gezeichnet, eine 🦉.