Bequemlichkeit ist relativ, man kann ja die Privatkopie bemühen und hat dann irgendwann auch einen ansehnlichen Katalog. Und dann ist es schon ganz bequem.
Bequemlichkeit ist relativ, man kann ja die Privatkopie bemühen und hat dann irgendwann auch einen ansehnlichen Katalog. Und dann ist es schon ganz bequem.
Zeit für Bob Ross und/oder Space Night, lief damals™ auf BR…gute Zeiten
Klassiker…ich esse einfach mal noch einen. Dann bei 2h2m 😵💫
Volt hat ein gutes Programm. Aber das hatten die Linken bei der letzten Bundestagswahl auch und ich wurde trotzdem herbe enttäuscht und war am Ende froh, dass die Linke es nicht geschafft hat (va. wegen außenpolitischer Statements). Was kann man tun um einzuschätzen ob eine Partei sich nach der Wahl noch an das Programm gebunden fühlt und ob es sonst irgendwelche Red Flags gibt die im Parteiprogramm oder Wahl-O-Mat usw. nicht enthalten/abgefragt werden?
Mehr Geld fließt aus Europa in die USA denn andersherum.
Bist du sicher? Ich dachte Trumps Argument ist immer, dass die Handelsbilanz doch genau anders herum ist, also mehr Geld aus den USA nach Europa fließt als in die andere Richtung?
Ich bin noch viel früher abgestumpft. Wenn Bundeskanzlern Freunde wichtiger sind als das Gesetz, wenn Finanzminister sich nicht erinnern können wo das ganze Bargeld in ihrem Schreibtisch eigentlich nochmal herkommt…
Wir leben in einer Bananenrepublik und unser Staat ist ein Selbstbedienungsladen, ist seit jeher so gewesen und Besserung ist nicht in Sicht.
Steigende Preise sind immer irgendwie blöd, aber wenn es auch dazu führt den Papierkrieg mit Behörden und vor allem die sinnlose Dialogpost abzubauen dann finde ich es doch wieder ganz gut.
die ohne moderne Akutmedizin entweder selbst gestorben wären oder ihr Kind verloren hätten.
Unsere Tochter musste kurzzeitig ans Beatmungsgerät und hätte es ohne auch nicht gepackt (heute geht’s allen gut). Wenn man sowas halt nicht mal eben zuhause hat und auch weiß wie man es anwendet, dann ist das halt ne blöde Idee (ist es immer). War jedenfalls ne Erfahrung, die Erwartung ist ja eher so wie im Fernsehen: das Baby kommt, Mama ist überglücklich, Papa darf feierlich die Nabelschnur durchschneiden usw. Realität ist eher das Baby kommt, die Kinderärztin schnappt das Kind und rennt damit zur NICU 😬 nur gut das die Mama total groggy war und sich an nichts mehr erinnern kann!
Aber Rollreibung gilt für wenn das Rad sich verformt? Und außerdem brauchen wir denn nicht Reibung zum Trennen der Stücke? Wird dann die Anwenderfrustration nicht maximal bei minimierter Reibung?
Zahnpasta Marketing war früher also auch schon genauso faktenbasiert wie heute.
Der Pizzaroller ist die unterlegene Pizzaschneideart, da durch den Rollvorgang nur Haftreibung aber keine Gleitreibung entsteht*. Der Profi Pizzaschneider maximiert die Reibung mit einem Messer oder trennt die Pizzastücke voneinander durch Abklemmen mit einer Pizzaschere.
*Ich weiß ehrlich gesagt nicht wirklich ob das so stimmt aber in meinem Kopf macht es Sinn.
Ja, Daten bestimmen das Verhalten eines Programms mit, sonst wäre es nicht weit her mit der Datenverarbeitung. Nein, das ist nicht neu.
Willst du mich denn absichtlich nicht verstehen? Daten bestimmen jetzt die internen logischen Abläufe im System mit, wie dargelegt das Beispiel mit den Elefanten. Das ist sehr wohl neu (naja so neu wie KI eben). Trainingsdaten sind nicht einfach Eingangsdaten, wie sie bei der Anwendung einer gewöhnlichen Datenverarbeitung vorliegen. Sondern sie sind integraler Bestandteil der Entwicklung einer Datenverarbeitung. Grundlegende Teile des Systemverhaltens werden erst durch die Trainingsdaten bestimmt und zwar unabhängig davon zB welche Eingangsdaten in einer Produktivphase später anliegen.
Eben. Du erkennst den Unterschied.
Nein, Urheberrecht gilt für Daten und Code gleichermaßen, an dieser Stelle ist eben genau kein Unterschied. Konnte man das wirklich irgendwie falsch verstehen?
Was ist eigentlich dein Interesse?
Ich habe hier nicht wirklich ein Interesse sondern nur eine persönliche Überzeugung. Ich bin jedenfalls nicht aus beruflichen Gründen auf Lemmy unterwegs, falls das die Frage war. Am ehesten geht es mir um die Diskussion und den Ideenaustausch?
Mir ist auch nicht klar, worin die persönliche Erfahrung besteht. Ein besonderes Technikverständnis erkenne ich nicht.
😀 Sind wir jetzt auf dieser Ebene angekommen? Meine persönliche Erfahrung besteht darin, dass ich in der IT zum Thema promoviert habe und danach seit ~3 Jahren in leitender Position in der freien Wirtschaft in der KI Entwicklung weiter arbeite (beides mit Fokus auf embedded AI und im Automotive Bereich). Wo kommt denn bitte dein überlegenes Technikverständnis her?
Ich weiß nicht, was diese Organisationen mit KI zu tun haben.
Klassischerweise würde ich beide auch eher zur Open Source als zur KI Community zählen, aber bei der Frage nach Open Source KI gibt es doch die Überschneidung die beides relevant macht? Und auch wenn KI nicht der Fokus ist halte ich die Einschätzungen für relevant, an Fachwissen und Erfahrungen für eine fundierte Einschätzung mangelt es sicherlich in beiden Orgas nicht.
Ich kann verstehen, was die Analogie verführerisch macht, aber auf der technischen Ebene funktioniert sie schlicht nicht.
Das sehe ich anders. Sicherlich reichen die Daten in den seltensten Fällen um das Verhalten komplett Vorhersagen zu können. Aber sie bestimmen eben das Verhalten auch mit. Wenn man zB von Bild-Text Paaren ausgeht dann lernt das Modell implizit bestimmte Eigenschaften der abgebildeten Szenen oder Objekte nur aus den Daten. zB große Ohren + Stoßzähne = Elefant, diese Logik ist nirgendwo mehr im Quellcode niedergeschrieben, wie es bei traditioneller SW der Fall wäre, sondern sie entsteht einzig aus den Trainingsdaten. Und wenn mein Datensatz z.B. nur Elefantenkühe ohne Stoßzähne enthält, dann ändert sich die Logik ohne dass auch nur eine Zeile Code geändert wurde. Und wenn also entscheidende Teile der Logik aus den Daten entstehen und dadurch das Verhalten des gesamten Systems maßgeblich durch die Daten mitbestimmt wird, dann ist das etwas was früher (ohne KI) nur für den Quellcode gegolten hat aber eben jetzt auch auf Datensätze zutrifft. Und daher halte ich die Analogie zumindest in diesem Punkt auch für zutreffend. Und als Konsequenz gehören aus meiner Sicht dann auch nicht nur die Trainingscodes sondern auch die Datensätze befreit wenn es Open Source sein soll.
Erstmal ist das Problem das Urheberrecht. Kein Problem bei Code, aber bei Trainingsdaten.
Halte ich für falsch, Urheberrecht kann doch auch genauso für Quellcode gelten. Und Code an dem jemand anderes das Urheberrecht inne hat den darf ich auch nicht als Open Source veröffentlichen.
Tja. Ich habe nicht den Eindruck, dass die Open-Source-KI-Community dein Verständnis teilt.
Ich denke das hängt davon ab wen du fragst und wen du zur Community zählst. Wenn du die Stellungnahmen von FSF oder CCC oder dergleichen liest dann sehe ich da eher meine Sichtweise bestätigt.
Aber drücke ich mich denn so missverständlich aus? Die These ist Daten=Code bei KI Systemen. Untermauert durch die aufgezeigten Ähnlichkeiten bzw. ähnliche Entwicklungsmethodiken.
Und die Erweiterung von Open Source auf Daten erwächst aus Daten=Code, nicht aus dem (nicht)vorhandensein von qualitätssichernden Maßnahmen in OSS.
What? Hab ich das denn irgendwo behauptet?
Das man beides umsetzt sowohl für Code als auch für Daten sind aber Zeichen dafür, dass Code und Daten im KI Kontext eine ähnliche Funktion haben. Dann ist es doch nur konsequent auch die gleichen Maßstäbe in Hinsicht auf OSS anzulegen?
Ich denke schon dass man kompilieren können muss. Sonst landet man bei so fake OSS compliance wie bei Android wo die Hersteller ihre Modifikationen am Linux Kernel nur auf die minimalste und kryptischste Art und Weise veröffentlichen mit der keiner was anfangen kann. Das entspricht doch nicht dem Open Source Gedanken und kann doch niemanden zufrieden stellen.
Ich habe auch nicht behauptet dass überall Trainingsdaten benötigt werden oder jede Datenverarbeitung analog zum Kompilieren ist. Aber das Training von AI Modellen kann man denke ich schon vergleichen. Was das Verhalten (mit) bestimmt steht am Anfang, nämlich der Code bzw die Daten. Es folgt ein Prozess der das ganze umwandelt in etwas was im wesentlichen eine Blackbox ist und nur sehr eingeschränkt und unter großem Aufwand noch sinnvoll analysiert werden kann. In diesem Punkt sind die Vorgänge sehr analog und vergleichbar aus meiner Sicht.
Und das Recht zu teilen hängt vom Datensatz bzw. vom Code ab, Quellcode der persönliche Daten o.ä. im Klartext enthält darf ich sicherlich auch nicht einfach Open Source publizieren. Das Problem ist also nicht inhärent eines das nur auf Daten zutrifft. Und Datensätze können durchaus so angelegt werden dass sie auch geteilt werden dürfen, siehe gängige Praxis in der Wissenschaft selbst für Aufgaben wie Gesichtserkennung, Köperposen, …
Und der Status Quo an Gesetzen und Lizenzen definiert hier evtl. anders, aber hat denn die EU mit dem AI Act hier die Deutungshoheit? Mir geht es darum wie es eigentlich und aus dem intuitiven Verständnis von Open Source her sein sollte, nicht was AI Act oder GPL usw. derzeit abdecken.
Es ist ja auch letzten Endes nichts schlimmes daran wenn man Daten nicht publiziert. Es ist dann halt bloß einfach kein Open Source, weil man die Funktionsweise nicht wirklich nachvollziehen kann und das Trainingsergebnis auch nicht selbst erzeugen kann.
Ich habe ein paar Jahre an der Uni als Wimi gearbeitet, die Wissenschaft (die du unten schon genannt hattest) wäre also ein Beispiel wo ich persönliche Erfahrung sammeln durfte.
Aber auch mit Erfahrung in der freien Wirtschaft kann man argumentieren: die Beobachtung ist das die Daten wesentlich das Verhalten des Systems beeinflussen und damit kommt ihnen eine ähnliche Rolle zu wie Code in traditioneller SW.
Daher geht man z.B. dazu über für Daten ähnliche Qualitätsstandards zu definieren. Z.B. hat man für Code Spezifikationen und Unittests die das Prüfen. Es ist in der Wirtschaft, je nach Bereich und Qualitätsanforderungen, mittlerweile Standard sowas auch für Datensätze zu machen. Man prüft also automatisch und bei jeder Änderung bestimmte statistische Eigenschaften der Daten wie Klassenverteilung, Balanciertheit, auch über Einflussgrößen die nicht explizit trainiert werden. Also z.B. für eine Gesichtserkennung prüft man die Verteilung von Geschlecht, Ethnizität, Alter, … in den Trainingsdaten.
Auch werden Datensätze genau wie Code in versionierten Repositories vorgehalten.
De facto hat man also auch in der Wirtschaft die sehr ähnliche Bedeutung und damit auch Handhabung von Daten und Code in KI Systemen erkannt und umgesetzt. Sollten dann nicht die OSS Regeln auch genauso auf Daten übertragbar sein?
Bei OSS für iPhones gibt es diese Abhängigkeiten aber sie fehlen nicht, das ist also nicht was ich beschrieben habe.
OpenSource Code muss dich aber sehr wohl in die Lage versetzen selber aus dem Quellcode zu kompilieren und die ausführbare Binärdatei zu reproduzieren. In der Analogie wäre das trainierte Modell sowas wie die fertig kompilierte .exe . SW die nur kompiliert verteilt wird gilt auch nicht als OpenSource. Und die Wissenschaft ist doch immer schon wichtig für die ganze OSS Welt, sicherlich sollten wir die Definition nicht Vertretern “der Industrie” wie Google oder Microsoft usw. überlassen.
Wir haben das türkische Abo für ~8€/Monat ohne Werbung mit 4k und noch 3 weiteren “Haushaltsangehörigen”. Wenn man Autos per Reimport kaufen kann und Macbooks aus den USA günstiger sind, warum dann nicht auch für Netflix? Geht mitunter auch für Spiele und andere Sachen, sollte man auf dem Schirm haben.