Tech

Metas neuer KI-Beirat setzt sich ausschließlich aus weißen Männern zusammen

Meta gab am Mittwoch die Gründung eines KI-Beratungsgremiums bekannt, das nur aus weißen Männern besteht. Was hätten wir auch anderes erwartet? Frauen und Menschen mit anderer Hautfarbe haben seit Jahrzehnten darüber gesprochen, dass sie in der Welt der künstlichen Intelligenz ignoriert und ausgeschlossen werden, obwohl sie qualifiziert sind und eine wichtige Rolle bei der Entwicklung dieses Bereichs spielen.

Meta hat nicht sofort auf unsere Anfrage reagiert, um zur Vielfalt des Beirats Stellung zu beziehen.

Dieses neue Beratungsgremium unterscheidet sich von Metas tatsächlichem Vorstand und seinem Kontrollgremium, die eine vielfältigere Geschlechter- und Rassenvertretung aufweisen. Die Aktionäre haben dieses KI-Gremium nicht gewählt, das auch keine Treuepflicht hat. Meta teilte Bloomberg mit, dass der Beirat „Erkenntnisse und Empfehlungen zu technologischen Fortschritten, Innovationen und strategischen Wachstumschancen“ bieten würde. Er würde „regelmäßig“ tagen.

Es ist bezeichnend, dass der KI-Beirat ausschließlich aus Geschäftsleuten und Unternehmern besteht, nicht aus Ethikern oder Personen mit akademischem oder tiefem Forschungshintergrund. Man könnte argumentieren, dass aktuelle und ehemalige Führungskräfte von Stripe, Shopify und Microsoft gut positioniert sind, um Metas KI-Produkt-Roadmap zu überwachen, angesichts der unzähligen Produkte, die sie auf den Markt gebracht haben, aber es wurde immer wieder bewiesen, dass KI keine anderen Produkte sind. Es ist ein riskantes Geschäft, und die Folgen von Fehlern können weitreichend sein, insbesondere für marginalisierte Gruppen.

...

In einem kürzlich erschienenen Interview mit TechCrunch sagte Sarah Myers West, Managing Director des AI Now Institute, einer gemeinnützigen Organisation, die die sozialen Auswirkungen von KI untersucht, dass es entscheidend sei, die Institutionen, die KI produzieren, „kritisch zu überprüfen“, um sicherzustellen, dass die Bedürfnisse der Öffentlichkeit erfüllt werden.

„Diese fehleranfällige Technologie, und wir wissen aus unabhängiger Forschung, dass diese Fehler nicht gleichmäßig verteilt sind, sie schaden unverhältnismäßig häufig Gemeinschaften, die schon lange am stärksten unter Diskriminierung zu leiden hatten“, sagte sie. „Wir sollten eine viel, viel höhere Messlatte setzen.“

Frauen sind weitaus häufiger als Männer mit den dunklen Seiten der KI konfrontiert. Sensity AI fand 2019 heraus, dass 96 % der AI Deepfake-Videos online ungewollte, sexuell explizite Videos waren. Generative KI ist seitdem weitaus verbreiteter geworden, und Frauen sind immer noch das Ziel dieses verletzenden Verhaltens.

In einem hochkarätigen Vorfall aus dem Januar wurden nicht einvernehmliche, pornografische Deepfakes von Taylor Swift auf X viral, wobei einer der am weitesten verbreiteten Beiträge Hunderttausende von Likes und 45 Millionen Aufrufe erhielt. Soziale Plattformen wie X sind historisch gesehen daran gescheitert, Frauen vor solchen Situationen zu schützen - aber da Taylor Swift eine der mächtigsten Frauen der Welt ist, griff X ein, indem sie Suchbegriffe wie „taylor swift ai“ und „taylor swift deepfake“ verboten.

Aber wenn Ihnen dasselbe passiert und Sie keine weltweite Pop-Sensation sind, dann haben Sie möglicherweise Pech. Es gibt zahlreiche Berichte darüber, dass Schüler der Mittel- und Oberschulen explizite Deepfakes ihrer Klassenkameraden erstellen. Auch wenn diese Technologie schon länger existiert, ist es noch nie einfacher gewesen, darauf zuzugreifen - Sie müssen nicht technisch versiert sein, um Apps herunterzuladen, die speziell damit werben, Fotos von Frauen „auszuziehen“ oder ihre Gesichter auf Pornografie zu ändern. Tatsächlich zeigen Berichte von Kat Tenbarge von NBC, dass Facebook und Instagram Anzeigen für eine App namens Perky AI geschaltet haben, die sich selbst als Werkzeug zur Erstellung von eindeutigen Bildern beschrieb.

Zwei der Anzeigen, die angeblich Metas Erkennung entgingen, bis Tenbarge das Unternehmen auf das Problem aufmerksam machte, zeigten Fotos der Prominenten Sabrina Carpenter und Jenna Ortega mit unscharfen Körpern und forderten Kunden auf, die App dazu zu bringen, ihre Kleidung zu entfernen. Die Anzeigen verwendeten ein Bild von Ortega, als sie gerade sechzehn Jahre alt war.

Der Fehler, Perky AI Werbung schalten zu lassen, war kein isolierter Vorfall. Metas Kontrollgremium hat kürzlich Untersuchungen zu dem Versäumnis des Unternehmens eingeleitet, Berichte über sexuell explizite, KI-generierte Inhalte zu bearbeiten.

Es ist unerlässlich, dass die Stimmen von Frauen und Menschen mit anderer Hautfarbe in die Innovation von künstlicher Intelligenz einbezogen werden. So lange wurden solche marginalisierten Gruppen von der Entwicklung weltverändernder Technologien und Forschungen ausgeschlossen, und die Ergebnisse waren katastrophal.

Ein einfaches Beispiel ist die Tatsache, dass bis in die 1970er Jahre Frauen von klinischen Studien ausgeschlossen wurden, was bedeutet, dass ganze Forschungsfelder ohne das Verständnis entwickelt wurden, wie es sich auf Frauen auswirken würde. Besonders Schwarze sehen die Auswirkungen von Technologien, die ohne Rücksicht auf sie entwickelt wurden - zum Beispiel neigen selbstfahrende Autos eher dazu, sie zu erfassen, da ihre Sensoren möglicherweise eine schwerere Zeit haben, schwarze Haut zu erkennen, so eine Studie von 2019 des Georgia Institute of Technology.

Algorithmen, die auf bereits diskriminierenden Daten trainiert sind, geben nur die gleichen Vorurteile wieder, die Menschen ihnen beigebracht haben. Im Allgemeinen sehen wir bereits, wie KI-Systeme rassistische Diskriminierung in Beschäftigung, Wohnungswesen und Strafrecht perpetuieren und verstärken. Sprachassistenten haben Schwierigkeiten, verschiedene Akzente zu verstehen, und markieren oft die Arbeit von Personen, deren Muttersprache nicht Englisch ist, als künstlich generiert, da Englisch die Muttersprache der KI ist. Gesichtserkennungssysteme markieren Schwarze besonders häufig als mögliche Übereinstimmungen mit Straftätern.

Die gegenwärtige Entwicklung von KI verkörpert die bestehenden Machtstrukturen in Bezug auf Klasse, Rasse, Geschlecht und Eurozentrik, die wir anderswo sehen, und es scheint, dass nicht genug Führungskräfte darauf eingehen. Stattdessen verstärken sie es. Investoren, Gründer und Technologieführer sind so darauf konzentriert, schnell voranzukommen und Dinge kaputt zu machen, dass sie offenbar nicht verstehen können, dass Generative KI - die heiß begehrte KI-Technologie des Augenblicks - die Probleme verschlimmern und nicht verbessern könnte. Laut einem Bericht von McKinsey könnte KI etwa die Hälfte aller Jobs automatisieren, die keinen vierjährigen Abschluss erfordern und über 42.000 US-Dollar jährlich zahlen, Jobs, in denen Minderheitsarbeiter überrepräsentiert sind.

Es gibt Grund zur Sorge, wie ein Team ausschließlich aus weißen Männern bei einem der prominentesten Technologieunternehmen der Welt, das in diesem Wettlauf um die Weltrettung mittels KI engagiert ist, jemals Ratschläge zu Produkten für alle Menschen geben könnte, wenn nur eine enge demografische Gruppe vertreten ist. Es wird eine massive Anstrengung erfordern, Technologien zu entwickeln, die wirklich jeder - absolut jeder - verwenden kann. Tatsächlich sind die Ebenen, die benötigt werden, um tatsächlich sichere und inklusive KI zu schaffen - von der Forschung bis zum Verständnis der gesellschaftlichen Ebene - so komplex, dass es fast offensichtlich ist, dass dieser Beirat Meta nicht dabei helfen wird, es richtig zu machen. Zumindest dort, wo Meta Mängel aufweist, könnte ein anderes Startup entstehen.

Wir starten einen KI-Newsletter! Melden Sie sich hier an, um ihn ab dem 5. Juni in Ihren Posteingängen zu erhalten.

Related Articles

Back to top button Back to top button