Tech

Frauen in KI: Sarah Myers West sagt, wir sollten uns fragen, 'Warum überhaupt KI entwickeln?'

Um Frauen, die sich auf KI konzentrieren, Akademikerinnen und anderen die wohlverdiente - und überfällige - Aufmerksamkeit zu schenken, veröffentlicht TechCrunch eine Reihe von Interviews mit bemerkenswerten Frauen, die zur KI-Revolution beigetragen haben. Wir veröffentlichen diese Beiträge im Laufe des Jahres, während der KI-Boom weitergeht, um herausragende Arbeit zu würdigen, die oft unbeachtet bleibt. Lesen Sie hier mehr Profile.

Sarah Myers West ist Geschäftsführerin des AI Now-Instituts, einem amerikanischen Forschungsinstitut, das die sozialen Auswirkungen von KI und politische Forschung untersucht, die sich mit der Machtkonzentration in der Technologiebranche befasst. Zuvor war sie als leitende Beraterin für KI bei der US-amerikanischen Bundeshandelskommission tätig und ist als Gastforscherin an der Northeastern University sowie als Forschungsmitarbeiterin im Citizens and Technology Lab der Cornell University tätig.

Kurz gesagt, wie sind Sie in KI auf den Weg gekommen? Was hat Sie an dem Bereich angezogen?

Die letzten 15 Jahre habe ich die Rolle von Technologieunternehmen als mächtige politische Akteure hinterfragt, als sie an vorderster Front der internationalen Regierung auftauchten. Früh in meiner Karriere konnte ich beobachten, wie US-Technologieunternehmen auf der ganzen Welt in einer Weise auftraten, die das politische Gefüge veränderte - in Südostasien, China, dem Nahen Osten und anderswo - und ein Buch schrieb, das sich damit befasste, wie Lobbying und Regulierung der Ursprung des Überwachungsgeschäftsmodells für das Internet geprägt haben trotz Technologien, die theoretisch Alternativen boten, die in der Praxis nicht zum Tragen kamen.

Was sind einige der dringendsten Probleme, mit denen KI sich entwickelt?

An erster Stelle steht, dass KI-Technologien in sensiblen Kontexten weit verbreitet eingesetzt werden - in Krankenhäusern, Schulen, an Grenzen usw. - aber unzureichend getestet und validiert sind. Es handelt sich um fehleranfällige Technologie, und wir wissen aus unabhängigen Forschungen, dass diese Fehler nicht gleichmäßig verteilt sind; sie schaden überproportional Gemeinschaften, die bereits lange unter Diskriminierung gelitten haben. Wir sollten einen viel höheren Maßstab setzen. Aber genauso besorgniserregend ist, wie mächtige Institutionen KI - ob sie funktioniert oder nicht - verwenden, um ihre Handlungen zu rechtfertigen, von der Verwendung von Waffen gegen Zivilisten im Gazastreifen bis zur Entrechtung von Arbeitnehmern. Dies ist ein Problem nicht in der Technologie, sondern im Diskurs: wie wir unsere Kultur um die Technologie herum orientieren und die Idee, dass bestimmte Entscheidungen oder Verhaltensweisen objektiver werden oder irgendwie akzeptiert werden, wenn KI involviert ist.

Was ist der beste Weg, um verantwortungsbewusst KI zu entwickeln?

Wir müssen immer von der Frage ausgehen: Warum überhaupt KI entwickeln? Was erfordert den Einsatz von künstlicher Intelligenz, und ist die KI-Technologie für diesen Zweck geeignet? Manchmal lautet die Antwort, besser zu bauen, und in diesem Fall sollten die Entwickler sicherstellen, dass sie den Gesetzen entsprechen, ihre Systeme robust dokumentieren und validieren und offenlegen und transparent machen, was sie können, damit unabhängige Forscher dasselbe tun können. Aber manchmal lautet die Antwort, überhaupt nicht zu bauen: Wir brauchen keine weiteren 'verantwortungsbewusst gebauten' Waffen oder Überwachungstechnologien. Der Endzweck ist für diese Frage entscheidend, und hier müssen wir anfangen.

Related Articles

Back to top button Back to top button