banner
Nachrichtenzentrum
Erhalten Sie jederzeit Unterstützung mit unserem 24-Stunden-Online-Service.

Uber selbst

Aug 10, 2023

Hallo und willkommen zurück bei Eye on AI. Ich bin Sage Lazzaro und vertrete Jeremy.

Während sich die meisten Menschen am Freitagabend abmeldeten, um ein weiteres schwüles Sommerwochenende zu genießen, ging nach fünf Jahren endlich ein bahnbrechender Rechtsstreit darüber zu Ende, wer die Verantwortung trägt, wenn KI direkt an physischen Schäden in der realen Welt beteiligt ist.

Rafaela Vasquez, die Fahrerin am Steuer eines selbstfahrenden Uber-Testwagens, der 2018 in Tempe, Arizona, einen Fußgänger angefahren und getötet hat, bekannte sich einer Gefährdung schuldig. Der Richter am Maricopa County Superior Court, David Garbarino, akzeptierte den Deal und verurteilte sie zu drei Jahren auf Bewährung unter Aufsicht, womit der Fall endgültig abgeschlossen wurde. Vasquez wurde ursprünglich wegen fahrlässiger Tötung angeklagt, ein Verbrechen, das mit einer Freiheitsstrafe von bis zu acht Jahren geahndet wird.

Der Unfall im Jahr 2018, bei dem eine Frau namens Elaine Herzberg getötet wurde, als sie mit dem Fahrrad über die Straße ging, war der erste tödliche Zusammenstoß mit einem vollständig autonomen Fahrzeug. Der Fall beschäftigte Beobachter, als Uber und Vasquez jeweils versuchten, die Schuld für eine Situation abzuwälzen, die nicht nur keinen Präzedenzfall hatte, sondern auch mehrere Fragen zur Verantwortung in einer Welt aufwarf, in der menschliche Arbeiter zunehmend KI-Maschinen überwachen, sich von Algorithmen leiten lassen und an vorderster Front sitzen von unvollkommenen KI-Systemen, die von Unternehmensingenieuren gebaut wurden.

Als es zu dem Absturz kam, dachte Vasquez laut einem ausführlichen Interview mit Wired, das letztes Jahr veröffentlicht wurde, dass Uber hinter ihr stehen würde. Sie war wirklich begeistert von der aufstrebenden Branche und sah sich als stolze Verwalterin des Unternehmens, die ihre Aufgabe erfüllte, die selbstfahrenden Fahrzeuge des Unternehmens zu überwachen, während sie Übungsmeilen sammelten. Arizona, wo die Beschränkungen gelockert wurden, um mehr Geschäfte mit Unternehmen aus dem Silicon Valley anzulocken, war kürzlich zu einem Zufluchtsort für Ubers Testprogramm auf der Straße geworden, nachdem Kalifornien die Zulassungen der Uber-Autos widerrufen hatte. Der Gerichtsmediziner bezeichnete Herzbergs Tod offiziell als Unfall, und Uber stellte Vasquez zunächst einen Anwalt zur Verfügung, doch die Interaktionen mit ihrem Vorgesetzten entwickelten sich laut Wired schnell von „tröstend zu beunruhigend“.

Für Velasquez änderte sich das Blatt, als die Ermittlungen ergaben, dass auf ihrem Privattelefon zum Zeitpunkt des Absturzes die Fernsehsendung „The Voice“ gestreamt wurde. Dashcam-Aufnahmen zeigten außerdem, dass sie in den Augenblicken vor der Kollision nach unten schaute, und die Analyse der Polizei ergab später, dass Vasquez das Auto rechtzeitig hätte übernehmen können, und hielt den Vorfall für „völlig vermeidbar“.

Obwohl der Fall nicht vor Gericht kam, war die Verteidigung von Vasquez mit Argumenten gespickt, die auf die Schuld ihres Arbeitgebers hindeuteten. In den Gerichtsakten behauptete Vasquez, dass sie „The Voice“ nicht zusah, sondern nur zuhörte, was gemäß den Uber-Richtlinien erlaubt war. Und als sie nach unten schaute, wollte sie Slack-Nachrichten auf ihrem Arbeitsgerät überprüfen, die ihrer Meinung nach in Echtzeit überwacht werden müssten. Dies wurde in der Vergangenheit von einem zweiten Betreiber durchgeführt, aber Uber hatte kürzlich die Anforderung, zwei Testbetreiber in jedem Fahrzeug zu haben, aufgehoben und setzte nun Ersatzfahrer wie Vasquez ein, die alleine arbeiteten. Dies veränderte die Dynamik der Arbeit, einschließlich der Art und Weise, wie Bediener ihr Feedback zum Fahrsystem eingeben, und führte zu einsamen, langen Schichten auf denselben Straßen, in der Regel ohne Zwischenfälle oder die Notwendigkeit eines Eingreifens.

In einem weiteren wichtigen Teil ihrer vorgerichtlichen Verteidigung zitierten die Anwälte von Vasquez ein Urteil des National Transportation Safety Board, das feststellte, dass das Auto Herzberg nicht als Fußgänger identifizierte, was dazu führte, dass nicht gebremst wurde. Der Vorstand stellte außerdem fest, dass Uber über eine „unzureichende Sicherheitskultur“ verfüge und es nicht geschafft habe, die „Automatisierungs-Selbstzufriedenheit“ bei seinen Testbetreibern zu verhindern, ein gut dokumentiertes Phänomen, bei dem Arbeiter, die mit der Überwachung automatisierter Systeme beauftragt sind, darauf vertrauen, dass die Maschinen sie unter Kontrolle haben und anhalten aufpassen. Darüber hinaus reichte ein ehemaliger Betriebsleiter des Unternehmens nur wenige Tage vor dem Unfall eine Whistleblower-Beschwerde über ein Muster mangelhafter Sicherheitspraktiken in der Abteilung für selbstfahrende Autos ein.

„Diese Geschichte verdeutlicht einmal mehr, dass Unfälle mit KI-Beteiligung oft ‚Probleme vieler Hände‘ sind, bei denen verschiedene Akteure einen Teil der Verantwortung tragen“, sagte Filippo Santoni de Sio, Professor für Tech-Ethik und -Philosophie an der Technischen Universität Delft, der sich darauf spezialisiert hat moralische und rechtliche Verantwortung von KI und Robotik. Er hat bereits zuvor über diesen Fall geschrieben.

„Obwohl Uber oder die Aufsichtsbehörden aus den rechtlichen Ermittlungen eindeutig hervorgegangen sind“, fügte er hinzu, „tragen sie eindeutig einen großen Teil der moralischen Verantwortung für den Tod von Elaine Herzberg.“

Da Unternehmen in allen Branchen KI in rasantem Tempo integrieren, besteht ein dringender Bedarf, die moralischen, ethischen und geschäftlichen Fragen zu hinterfragen, die entstehen, wenn menschliche Arbeitskräfte zunehmend mit und im Auftrag von KI-Systemen arbeiten, an deren Entwicklung sie keinen Anteil hatten.

Erst letzte Woche argumentierte der demokratische Senator von Pennsylvania, Bob Casey, dass KI die nächste Herausforderung im Kampf für Arbeitnehmerrechte sein wird, und brachte zwei Gesetzesentwürfe zur Regulierung der Technologie am Arbeitsplatz ein. Der sogenannte „No Robot Bosses Act“ würde Unternehmen verbieten, bei Entscheidungen, die sich auf die Beschäftigung auswirken, auf automatisierte und algorithmische Systeme zurückzugreifen, während der andere auf die KI-Überwachung des Arbeitsplatzes abzielt. Keiner dieser Gesetzentwürfe bezieht sich direkt auf Situationen wie die von Vasquez (obwohl sie sich scheinbar auf Ubers algorithmisch gesteuerte Mitfahrgelegenheiten und Unternehmensmitarbeiter auswirken würden), aber sie sind nur ein kleiner Vorgeschmack auf das, was der Kongress, die EU und andere Regierungen auf der ganzen Welt in Betracht ziehen im Hinblick auf die KI-Regulierung für den Arbeitsplatz und darüber hinaus. Arbeitnehmerrechte im Zeitalter der KI stehen sogar im Mittelpunkt des aktuellen Streiks in Hollywood, wo Schauspieler gegen eine Klausel in ihren Verträgen kämpfen, die es den Studios ermöglichen würde, sie für einen Arbeitstag zu bezahlen und dann ihr Konterfei mithilfe von KI auf Dauer nachzubilden

„Der Rechtsstreit um die Haftung ist vorbei“, sagte Santoni de Sio über den Fall Vasquez, „aber die ethische und politische Debatte hat gerade erst begonnen.“

Hier nun der Rest der KI-Neuigkeiten dieser Woche.

Weiser Lazarussagelazzaro.com

Google führt ein RT-2-Robotikmodell ein, das auf seinen KI-Sprachmodellen trainiert wurde. Das berichtet die New York Times, die eine Vorschau auf einen einarmigen Roboter mit RT-2-Plattform erhalten hat. In einer Demonstration erledigte der Roboter erfolgreich eine Reihe von Aufgaben, die logisches Denken und Improvisation erforderten, beispielsweise die richtige Auswahl des Dinosauriers, als er angewiesen wurde, „das ausgestorbene Tier“ aus einer Reihe von Tierfiguren aufzuheben. In der Vergangenheit trainierten Ingenieure Roboter für die Ausführung mechanischer Aufgaben, indem sie sie mit einer expliziten Liste von Anweisungen programmierten. Das bedeutete, dass Roboter Aufgaben nur langsam und einzeln erlernen konnten, was ihre Funktion einschränkte. Aber RT-2, trainiert mit Texten und Bildern aus dem Internet, nutzt die neuesten Entwicklungen bei großen Sprachmodellen, um Robotern das selbstständige Erlernen neuer Aufgaben zu ermöglichen.

Biden versucht, KI-Investitionen in China zu begrenzen. Laut Bloomberg plant Präsident Joe Biden, bis Mitte August eine Durchführungsverordnung zur Begrenzung wichtiger US-Technologieinvestitionen in China zu unterzeichnen. Die Anordnung konzentriert sich auf künstliche Intelligenz, Halbleiter und Quantencomputing und soll bestimmte Transaktionen verbieten, ohne Auswirkungen auf bestehende laufende Geschäfte zu haben.

Eingehende Beschränkungen lassen die Preise für Nvidia-KI-GPUs in China in die Höhe schnellen. Da die USA hart gegen den Technologieaustausch zwischen dem Land und China vorgehen, werden die KI-GPUs von Nvidia laut Tom's Hardware für bis zu 70.000 US-Dollar pro Einheit verkauft, mehr als doppelt so viel wie in den USA. Und das ist, wenn es überhaupt möglich ist, einen zu bekommen. Da die meisten KI-Cluster auf Nvidia-GPUs basieren, besteht eine hohe Nachfrage von Unternehmen, die die Einheiten zur Unterstützung ihrer Systeme benötigen, wenn diese wachsen.

Die juristische Fakultät gibt bekannt, dass Studierende ChatGPT und andere generative KI für Bewerbungen verwenden können. Laut Reuters hat das Sandra Day O'Connor College of Law an der Arizona State University den Bewerbern grünes Licht gegeben, generative KI zum Verfassen ihrer Zulassungsunterlagen zu verwenden. Dekanin Stacy Leeds sagte, es handele sich nur um „ein weiteres Werkzeug in ihrem Werkzeugkasten“ und viele Bewerber zahlten bereits für die Hilfe professioneller Berater, während generative KI allgemein zugänglich sei. Bewerber, die in ihren Bewerbungen Tools wie ChatGPT verwenden, müssen bestätigen, dass sie KI verwendet haben und dass die Informationen wahr sind, genau wie sie auch dann verlangt werden, wenn sie Hilfe von einem professionellen Berater erhalten hätten. Die Entscheidung ist das Gegenteil einer anderen aktuellen Entscheidung der Michigan Law School, die potenziellen Studenten ausdrücklich untersagte, die Technologie für die Zulassung zu nutzen.

Was kommt nach Transformers? Der aktuelle Tsunami des KI-Fortschritts ist insbesondere einer Innovation zu verdanken: dem Transformer. Diese Art von neuronalem Netzwerkmodell, das erstmals in einem Forschungsbericht von Google aus dem Jahr 2017 beschrieben wurde, hat seine Vorgängertechniken fast vollständig verdrängt und liegt nun den meisten gängigen Modellen für maschinelles Lernen zugrunde, von BERT bis zu den verschiedenen GPT-Modellen von OpenAI, bei denen das „T“ für Transformer steht . Jetzt suchen Stanford-Forscher nach Alternativen zum bekanntermaßen rechenintensiven (und teuren) Transformer-Ansatz, die die gleiche Leistung bei höherer Effizienz liefern könnten, und nennen die neue Forschungsrichtung „Monarch Mixer“. In einem Versuch, bei dem BERT mit ihren Techniken neu trainiert wurde, was im Wesentlichen darin bestand, die Hauptelemente eines Transformers durch Monarch-Matrizen zu ersetzen, sagten die Forscher, dass sie einige „ziemlich gute Ergebnisse erzielen konnten, selbst mit weniger Parametern“. Das bedeutet nicht, dass der Transformer schon bald auf dem Markt ist, aber es ist ein interessanter Anfang für die möglicherweise nächste Modellphase. Den Forschungsblog können Sie hier lesen.

Google UK-Chef sagt, man könne seinem Chatbot Bard nicht vertrauen, wenn es um genaue Informationen geht – Prarthana Prakash

Generative KI wird die Arbeitswelt auf den Kopf stellen, sagt McKinsey, indem sie bis 2030 12 Millionen Jobwechsel erzwingt und 30 % der in der US-Wirtschaft geleisteten Arbeitsstunden automatisiert – Paolo Confino

Amy Hood, CFO von Microsoft, legt einen Fahrplan für KI-Investitionen vor – Sheryl Estrada

Netflix möchte einen KI-Produktmanager mit einem Gehalt von 900.000 US-Dollar einstellen, während Streaming und KI Hollywood verwüsten – Chloe Berger

Microsoft, Google und OpenAI sind gerade Gründungsmitglieder der möglicherweise ersten echten KI-Lobby geworden. Als nächstes: Der Gesetzgeber schreibt die Regeln – Paolo Confino

KI und die Außerirdischen.Außerhalb der KI war die Nachricht, die letzte Woche die Massen erfasste, die Bombenanhörung des House Oversight Committee über UAPs (das ist Unidentified Anomalous Phenomena, der neue Begriff für UFOs), bei der Zeugen aussagten, dass die US-Regierung über UAP-Flugzeuge und Biologika verfügt , hat unter anderem ein jahrzehntelanges Unfallrettungsprogramm vertuscht und unter anderem Gelder falsch eingesetzt, um es zu finanzieren.

Was in der Anhörung, die sich hauptsächlich auf die Auswirkungen auf die nationale Sicherheit konzentrierte, nicht zur Sprache kam, ist der weit verbreitete Ehrgeiz, KI für die UAP-Verfolgung und -Forschung einzusetzen.

Insbesondere maschinelles Lernen ist nützlich, um große Datenmengen zu verarbeiten und zu verstehen. Auf die Frage des Ausschusses, was in Bezug auf UAPs geschehen muss, sagten die drei Zeugen, allesamt ehemalige US-Militär- oder Geheimdienstbeamte, aus, dass ein zentralisiertes System zur Verfolgung und Analyse von UAP-Daten oberste Priorität haben sollte.

Hypergiant, ein in Texas ansässiges Unternehmen für maschinelles Lernen und staatlicher Auftragnehmer, der kritische Infrastrukturen für Verteidigung und Raumfahrt entwickelt, ist ein Unternehmen, das bei der Suche nach UAPs auf KI setzt. Das Unternehmen hat seine CONTACT-Software (Contextual Organized Non-Terrestrial Active Capture Tool) entwickelt, um nicht identifizierte, von Satelliten erfasste Sichtungen zu kategorisieren und zu analysieren.

In einem anderen Beispiel beschloss ein Team von Open-Source-Entwicklern, die Sache selbst in die Hand zu nehmen und startete kürzlich ein Projekt namens Sky 360, bei dem 20 Überwachungsstationen (und es werden noch mehr) eingerichtet und KI eingesetzt wurde, um mögliche UAP-Sichtungen zu erkennen und zu analysieren. Das System basiert auf der TensorFlow-Plattform für maschinelles Lernen und nutzt Computer Vision, um Bewegungen in einem Frame im Vergleich zu vorherigen Frames zu erkennen.

Ravi Starzl, ein Informatikprofessor an der Carnegie Mellon, der sich auf KI und Computeranalyse konzentriert, sagte, er habe persönlich mehreren Organisationen bei der Entwicklung maschineller Lernsysteme zur Identifizierung und Charakterisierung von UAPs geholfen, einschließlich der Analyse von visuellen, Radar-, Audio- und Textdaten.

Die NASA hat auch vorgeschlagen, KI zur Untersuchung von UAP-Daten zu verwenden, und tatsächlich hat die Agentur bereits Erfolge erzielt, indem sie KI unter anderem bei der Identifizierung neuer Exoplaneten und der Erforschung von Teilen des Mars eingesetzt hat, die andernfalls unerreichbar gewesen wären. Es ist nicht klar, ob die NASA bereits KI für ihre UAP-Bemühungen genutzt hat, aber die Agentur könnte in ihrem mit Spannung erwarteten UAP-Bericht, der voraussichtlich diesen Monat veröffentlicht wird, Licht in diese Frage bringen.

Dies ist die Online-Version von Eye on AI, einem kostenlosen Newsletter, der dienstags in die Posteingänge verschickt wird. Hier anmelden.

Weiser LazarusKI und die Außerirdischen.