Für nicht einmal zwei Dollar die Stunde sollen diese der KI beigebracht haben, toxische Inhalte zu vermeiden – und mussten dafür genau diese sortieren. Es ist eines der zentralen Probleme bei der Entwicklung von künstlicher Intelligenz (KI): Wie verhindert man, dass diese all die Vorurteile, all den Hass, der im Internet zu finden ist, reproduziert? Dieses Problem des “Bias” stellt sich generell bei allen Formen des Maschinenlernens, bei großen Sprachmodellen wie dem Chat GPT zugrundeliegenden GPT-3 ist das aber besonders virulent. Eben weil hier weite Teile des Internets als Trainingsmaterial verwendet werden, eine Auswahl also nur begrenzt möglich ist. Bei Chat GPT heißt die Antwort darauf: Menschen. Und zwar Menschen, die der KI manuell beibringen, was eine passende Antwort ist und was nicht. So lernt diese nach und nach, was passendes Verhalten ist, tatsächlich neigt der Chatbot von Open AI im Gegensatz zu vielen seiner Vorgängern nicht zu rassistischen oder sexistischen Ausfällen. Das ist erfreulich, hat aber auch eine dunkle Seite, die nun ein Bericht von “Time” offenlegt. Das Training von Chat GPT soll nämlich von der kenianischen Firma Sama vorgenommen worden sein, deren Mitarbeiter dafür dann weniger als zwei Dollar pro Stunde bekommen haben sollen. Vor allem aber sollen sie dafür die dunkelsten Seiten der menschlichen Natur präsentiert bekommen haben. Problematische Inhalte Im Fall von Chat GPT soll das Training nämlich so abgelaufen sein, dass der KI beigebracht wurde, was toxische Inhalte sind. Konkret sieht das dann so aus, dass die Mitarbeiter all diese Inhalte manuell mit entsprechenden Labels versehen, mithilfe derer die KI dann nach und nach lernt, was sie aussortieren soll. Zu diesem Zweck sollen ab November 2021 zehntausende Negativbeispiele an die besagte Firma geschickt worden sein. Laut dem Bericht sollen darunter auch Beschreibungen von Mord, Folter oder auch sexualisierter Gewalt gegen Kinder gewesen sein. Stellungnahme Bei Open AI widerspricht man dieser Darstellung auch gar nicht, sieht all dies aber als essenziell in der Entwicklung von künstlicher Intelligenz an. “Die Klassifizierung und das Filtern von schädlichen Inhalten ist ein notwendiger Schritt zur Minimierung von gewalttätigen und sexuellen Inhalten in Trainingsdaten sowie bei der Entwicklung von Tools, die so etwas entdecken können”, heißt es in einer Stellungnahme.

via standard: Das schmutzige Geheimnis von Chat GPT sind kenianische Billiglohnkräfte

ChatGPT.png
Von <a href=”//commons.wikimedia.org/w/index.php?title=User:Ni%C3%B0_ricsa%C3%B0&amp;action=edit&amp;redlink=1″ class=”new” title=”User:Nið ricsað (page does not exist)”>Nið ricsað</a> – <span class=”int-own-work” lang=”de”>Eigenes Werk</span>, CC BY-SA 4.0, Link