Google setzt vorübergehend die Erzeugung von Personenbildern in Gemini aus, nachdem Bedenken hinsichtlich Vorurteilen aufgekommen sind

Diskutiere, Google setzt vorübergehend die Erzeugung von Personenbildern in Gemini aus, nachdem Bedenken hinsichtlich Vorurteilen aufgekommen sind in Neuigkeiten forum; In der letzten Woche ist Googles Konversations-KI, Gemini, wegen eines Vorfalls unter die Lupe...
  • Google setzt vorübergehend die Erzeugung von...
google gemini


In der letzten Woche ist Googles Konversations-KI, Gemini, wegen eines Vorfalls unter die Lupe genommen worden, bei dem gezeigt wurde, dass die KI bei der Generierung von Bildern von Personen Vorurteile zeigt. Nutzer haben berichtet, dass Gemini, wenn sie darum baten, Menschen in historischen Kontexten oder fiktiven Situationen darzustellen, häufiger Figuren mit dunklerer Hautfarbe abbildete. Dadurch wurden berechtigte Bedenken hinsichtlich möglicher Vorurteile in dem System aufgeworfen.

In einer Erklärung hat Google anerkannt, dass Gemini nicht gut darin ist, Menschen unterschiedlicher Ethnien und Hintergründe auf eine ausgewogene und inklusive Weise darzustellen. Das Unternehmen hat beschlossen, vorübergehend die Fähigkeit seines KI-Chatbots zur Generierung von Bildern von Menschen zu deaktivieren.

Google hat erklärt, dass Inklusion und Vielfalt für das Unternehmen äußerst wichtige Prinzipien sind. Das Unternehmen möchte nicht, dass seine Technologien auf irgendeine Weise Vorurteile aus der realen Welt verbreiten oder ihnen ausgesetzt sind.

Wir arbeiten bereits daran, die aktuellen Probleme mit der Bildgenerierung von Gemini zu beheben. Währenddessen werden wir die Generierung von Bildern von Personen pausieren und bald eine verbesserte Version veröffentlichen. https://t.co/SLxYPGoqOZ — Google Communications (@Google_Comms) 22. Februar 2024
Wenn Nutzer jetzt Gemini bitten, ein Bild zu erstellen, erhalten sie eine Nachricht, in der erklärt wird, dass die Funktion derzeit nicht verfügbar ist, aber zurückkehren wird, sobald die Vorurteilsvorwürfe angemessen behandelt wurden.

Experten haben laut AP News festgestellt, dass KI-Bildgeneratoren aufgrund von Vorurteilen in ihren Trainingsdaten, die oft keine Repräsentationen von Menschen aus allen Bevölkerungsgruppen haben, Schwierigkeiten mit der Vielfalt haben. Google scheint entschlossen zu sein, diese Einschränkungen in Gemini anzugehen, bevor die Funktion wieder aktiviert wird. Es soll sichergestellt werden, dass das System alle Arten von Menschen objektiv und ausgewogen darstellen kann.

Dieser Schritt wird als proaktiver Schritt zur Herstellung fairer und inklusiver KI-Technologien angesehen. Im Rahmen dieser Bewegung hat die US-Regierung im Februar Maßnahmen ergriffen, um die sichere Entwicklung von generativer KI zu fördern. Apple, OpenAI und Microsoft traten dem ersten Konsortium bei, um Protokolle für KI zu berücksichtigen.

Quelle: neowin.net

 
K
Klaus

Lösungsvorschläge

Hey,

Diese Lösungen und Anleitungen können dir bei der Problemlösung behilflich sein:
  • Google setzt vorübergehend die Erzeugung von...
  • #2
Das ist eine verrückte Idee. Führen Sie einige gründliche Tests durch, um sicherzustellen, dass Ihr KI-Bot nicht rassistisch ist, bevor Sie ihn der Öffentlichkeit zugänglich machen ...
 
  • Google setzt vorübergehend die Erzeugung von...
  • #3
habe es für dich behoben
 
  • Google setzt vorübergehend die Erzeugung von...
  • #4
Hör auf. Der Bot war nicht rassistisch ... es ist ein Bot. Nur die verwendeten Trainingsdaten waren schlecht. Weitergehen. Lol, der Bot war rassistisch.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #5
Ich bin verwirrt ... Zwillinge sind voreingenommen gegenüber Menschen mit helleren Hauttönen, weil sie nicht genügend Bilddaten zu weißen Menschen haben? Das scheint unwahrscheinlich.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #6
Wissen Sie, wie man Voreingenommenheit umgeht? Seien Sie deutlich in dem, was Sie verlangen... hoffen Sie nicht nur, dass es Ihnen das gibt, was Sie wollen, Sie wollen einen Asiaten, sagen Sie Asiaten, einen Afrikaner, sagen Sie Afrikaner, dunkle Haut, sagen Sie es, helle Haut, verstehen Sie? Bei Modellen, die auf „Milliarden“ von Bildern trainiert wurden, fällt es mir schwer zu glauben, dass es nicht genügend Daten zu verschiedenen Rassen, Nationalitäten usw. gibt.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #7
Nun, das war nicht das Problem. Wenn man ihn um ein Bild von George Washington bat, erhielt man ein schwarzes Gesicht von George Washington. Sie haben einfach nur Glück, dass dabei kein Bild von MLK als weiß ausgespuckt wurde, sonst wäre es in den nationalen Medien zu Empörung gekommen.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #8
Aber das ist nicht unbedingt eine Voreingenommenheit, das sind schlechte Trainingsdaten. Wenn sie Dinge richtig taggen, treten bei der Bilderstellung selten solche Probleme auf. Sie sollten ihren Trainingsdatensatz öffnen, damit die Leute überprüfen können, wie er getaggt ist. Das könnte genauso einfach sein als Bild, das mit Schwarzweiß oder Monochrom getaggt ist und dessen Textkodierer es nicht verstehen, weil es an guter Markierung und Verknüpfung von Schwarzweiß mit Schwarz und Schwarz mangelt. Ich wette, wenn Sie sagen würden, dass George Washington eine weiße Person ist, würde es das zeigen richtig, aber wenn man George Washington schwarz auf weiß schreiben würde, würde es wieder zu Verwirrung kommen

Aber sie würden ihre Daten wahrscheinlich nie öffnen, denn ich wette, sie werden größtenteils durch Scraping-Websites gestohlen
 
  • Google setzt vorübergehend die Erzeugung von...
  • #9
Oder ... sie können aufhören, den rosahaarigen Zwergen, die aus Diversitätsgründen angeheuert wurden, die Erlaubnis zu geben, eine KI zu programmieren.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #10
„Schlechte Trainingsdaten“ sind immer die Ausrede für KI-Fehler. Es ändert immer noch nichts an der Tatsache, dass es eine rassistische Tendenz zu schwarzen Hauttönen gab. Jemand hat es absichtlich so programmiert, dass es sich so verhält. Jede historische Referenz im Internet stellt diese Menschen korrekt dar, es ist also nicht so, dass die KI willkürlich eine Farbe oder Rasse ohne jegliche Referenz ausgewählt hätte. Es war immer schwarz. Das ist Lehrbuchvoreingenommenheit.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #11
Niemand hat es so programmiert, es ist Tagging. Sie möchten die „Verzerrung“ beseitigen und die Trainingsdaten anzeigen, damit die Leute sehen können, woher diese „Verzerrung“ kommt. Die Diffusionssysteme, die sie verwenden, basieren im Grunde alle auf der gleichen Mathematik wie andere Dort gibt es keine Funktion, die „MakeBlacker“ oder „AddDiversity“ besagt, es werden lediglich Textgewichte verwendet, die alle aus den Trainingsdaten und dem Text-Encoder stammen ...

Es ist der gleiche verdammte Grund, warum einige benutzerdefinierte stabile Diffusionsmodelle auf Bildern Asiaten und Frauen stärker in den Vordergrund stellen ... Es sind die Daten, nicht die Programmierung
 
  • Google setzt vorübergehend die Erzeugung von...
  • #12
Es ist die Programmierung... Schauen Sie sich etwas genauer an, was passiert ist.

Wenn Sie es auffordern, „ein Bild einer netten weißen Familie zu erstellen“, wird die Meldung angezeigt: „Obwohl ich Ihre Anfrage verstehe, kann ich keine Bilder erstellen, die auf bestimmten Rassen oder Ethnien basieren, weil dadurch schädliche Stereotypen verstärkt werden können.“ und zur Ausgrenzung und Marginalisierung bestimmter Gruppen beizutragen. Mein Ziel ist es, inklusiv zu sein und die Förderung schädlicher Vorurteile zu vermeiden.

Wenn Sie es bitten, ein Bild einer netten schwarzen Familie zu erstellen, erstellt es ein Bild einer schwarzen Familie.

Es wird kein Bild eines starken weißen Mannes erstellt oder angezeigt, sondern ein starker schwarzer Mann.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #13
Natürlich war es so programmiert ... KI ist nicht empfindungsfähig und trifft ihre eigenen Entscheidungen. Auch hier ging es nicht nur darum, eine Farbe aus dem Regenbogen auszuwählen. Es war ein wiederholbares und falsches Muster, basierend auf der Rasse. Es gibt keine historischen Daten, die diese Personen auf diese Weise darstellen, daher kann man unmöglich sagen, dass das Training mit fehlerhaften Daten durchgeführt wurde. Alles, was Sie tun, ist, eine Reihe leerer Ausreden zu erfinden, die keinen sachlichen Wert haben ...
 
  • Google setzt vorübergehend die Erzeugung von...
  • #14
Training != Programmieren ... Ich kann mit PyTorch ganz einfach ein Modell trainieren, das darauf abzielt, dass jeder schwarz ist. Niemand hat gesagt, dass es seine eigenen Entscheidungen trifft, das ist der springende Punkt bei latenten Bildern und Text-Encodern ... Historische Daten bedeuten nichts. .. Sie trainieren auf 100 Bildern von George Washington, Sie werden ihn bekommen, Sie beginnen mit dem Training auf Schwarz-Weiß-Bildern, es wird beginnen, George standardmäßig schwarz und weiß zu machen, beginnen mit dem Training „schwarzer“ Familien, dann beginnt es, diese Konzepte miteinander zu verknüpfen … Wenn Sie schon einmal mit Text-Encodern gearbeitet hätten, wüssten Sie, wie einfach es ist, ein Modell durch falsches Tagging zu beeinflussen oder absichtlich einen Stil zu erstellen
 
  • Google setzt vorübergehend die Erzeugung von...
  • #15
Ich habe nie den Hinweis gesehen, dass, als ich damit herumgespielt habe, „woher hast du das denn?“, weil ich nirgendwo einen Hinweis auf dieses Zitat finden kann. Quellen bitte.

Denn der einzige Hinweis auf etwas Ähnliches war jemand, der konkret darum gebeten hatte, ein Bild zu schaffen, das weiße Menschen feiert … Da gibt es einen großen Kontexthinweis
 
  • Google setzt vorübergehend die Erzeugung von...
  • #16
Google es und es gibt überall Beispiele. Hier ist ein Video von dem, was es tat

 
  • Google setzt vorübergehend die Erzeugung von...
  • #17
Ein besseres Beispiel wäre, wenn es live gezeigt wird und nicht vorgefertigt ist:
 
  • Google setzt vorübergehend die Erzeugung von...
  • #18
Ich kann mich erinnern, gelesen zu haben, dass jemand den Bot gebeten hat zu erklären, ob/wie er seine Parameter beim Generieren von Bildern angepasst hat. Der Bot antwortete offenbar, dass er „Diversity“ in die Anfrage einfüge, obwohl keines angegeben wurde. Ebenso hatte es keine Probleme, „schwarzer Cowboy“ zu generieren, schreckte jedoch vor „weißem Cowboy“ zurück. Also ja – lassen Sie die Rassisten los, die den Bot überhaupt programmiert haben, dann ist er vielleicht etwas weniger voreingenommen und besser in der Lage, das zurückzugeben, was von ihm verlangt wurde.
 
  • Google setzt vorübergehend die Erzeugung von...
  • #19
Den Programmierern wird gesagt, was sie tun sollen, geben Sie ihnen nicht die Schuld, es sind die DEI-Anzüge, die ihnen sagen, was der Bot tun soll
 
  • Google setzt vorübergehend die Erzeugung von...
  • #20
Es ist wild, wie sie diese KI mit einer so offensichtlichen Voreingenommenheit und Rassismus gegenüber Weißen veröffentlichen, es gibt keine Ausreden, genügend Beispiele und alles, das war eindeutig ein programmiertes Verhalten, es ist verrückt.
 
Thema: Google setzt vorübergehend die Erzeugung von Personenbildern in Gemini aus, nachdem Bedenken hinsichtlich Vorurteilen aufgekommen sind

Similar threads: Google setzt vorübergehend die Erzeugung von Personenbildern in Gemini aus, nachdem Bedenken hinsichtlich Vorurteilen aufgekommen sind

Google VPN wurde dabei erwischt, die DNS-Einstellungen von Windows 11/10 mit eigenen zu überschreiben: Da sich immer mehr Menschen der Gefahren des Internets bewusst werden und all die neugierigen Augen in der Umgebung, sind VPN oder Virtual Private Networks aufgrund der Absicht dieser Benutzer, ihre Surf- und Surfpraktiken zu verschlüsseln und zu maskieren, immer beliebter geworden. Sowohl...
Google bringt Chrome für Windows auf ARM auf den Markt: Google Chrome für Windows auf ARM ist endlich offiziell. Heute hat das Unternehmen angekündigt, dass eine vollständige ARM64-Benutzeroberfläche des weltweit beliebtesten Browsers veröffentlicht wird, die den Nutzern von ARM-basierten PCs einen schnelleren, reibungsloseren und effizienteren...
Google verlangt von YouTubernn, Labels für realistische KI-generierte Inhalte zu benutzen: Google verlangt nun von Personen, die auf YouTube Inhalte erstellen, dass sie alle Inhalte kennzeichnen, die mit KI-Tools erstellt wurden und als realistisch eingestuft werden. In einem Blog-Beitrag heute enthüllte Google, dass die neuen KI-Kennzeichnungsfunktionen jetzt als Tool im Creator...
Google ändert Safe Browsing für Chrome, um Echtzeitschutz für gefährliche Websites einzuschließen: Google bietet seinen Nutzern des Chrome Webbrowser schon seit geraumer Zeit den sogenannten Safe Browsing Schutz an. Heute kündigte das Unternehmen eine Änderung in der Standardversion von Safe Browsing an, die noch besseren Schutz vor bösartigen Websites bieten soll. In einem Blog-Beitrag...
Die neue KI von Google kann 3D-Spiele mit dir spielen, indem sie natürlichsprachliche Anweisungen befolgt: Künstliche Intelligenz (KI) wird in viele Apps und Dienste integriert, und auch Videospiele bleiben nicht unberührt davon. Im letzten Jahr kündigte Nvidia eine neue Technologie an, die es Entwicklern ermöglicht, generative KI-gesteuerte NPCs zu erstellen, die in Echtzeit mit Spielercharakteren...
Google Chrome zurücksetzen und Synchronisation: Problembeschreibung Der Benutzer hat Google Chrome aufgrund eines Problems mit Malwarebytes zurückgesetzt. Nach der Rücksetzung und dem Löschen der Daten hatte der Benutzer plötzlich kein Internet mehr. Der Benutzer ist verwirrt über die Anzahl der geöffneten Tabs, die Anzeige der Apps und...
Zurück
Oben