Das dunkle Geheimnis im Herzen der KI |MIT Technology Review

2022-05-29 14:42:47 By : Ms. Emily Wu

Letztes Jahr wurde ein seltsames selbstfahrendes Auto auf die ruhigen Straßen von Monmouth County, New Jersey, entlassen.Das Versuchsfahrzeug, das von Forschern des Chipherstellers Nvidia entwickelt wurde, sah nicht anders aus als andere autonome Autos, aber es war anders als alles, was Google, Tesla oder General Motors demonstrierten, und es zeigte die wachsende Macht der künstlichen Intelligenz.Das Auto befolgte keine einzige Anweisung eines Ingenieurs oder Programmierers.Stattdessen stützte es sich vollständig auf einen Algorithmus, der sich selbst das Fahren beigebracht hatte, indem er einem Menschen dabei zusah.Ein Auto dazu zu bringen, so zu fahren, war eine beeindruckende Leistung.Aber es ist auch ein bisschen beunruhigend, da nicht ganz klar ist, wie das Auto seine Entscheidungen trifft.Informationen von den Sensoren des Fahrzeugs gehen direkt in ein riesiges Netzwerk künstlicher Neuronen, die die Daten verarbeiten und dann die Befehle liefern, die zum Bedienen des Lenkrads, der Bremsen und anderer Systeme erforderlich sind.Das Ergebnis scheint den Reaktionen zu entsprechen, die Sie von einem menschlichen Fahrer erwarten würden.Aber was, wenn es eines Tages etwas Unerwartetes tut – gegen einen Baum prallt oder an einer grünen Ampel steht?Wie die Dinge jetzt stehen, könnte es schwierig sein, herauszufinden, warum.Das System ist so kompliziert, dass selbst die Ingenieure, die es entworfen haben, Schwierigkeiten haben, den Grund für eine einzelne Aktion zu isolieren.Und man kann es nicht fragen: Es gibt keinen offensichtlichen Weg, ein solches System so zu entwerfen, dass es immer erklären könnte, warum es getan hat, was es getan hat.Der mysteriöse Geist dieses Fahrzeugs weist auf ein drohendes Problem mit künstlicher Intelligenz hin.Die dem Auto zugrunde liegende KI-Technologie, bekannt als Deep Learning, hat sich in den letzten Jahren als sehr leistungsfähig bei der Lösung von Problemen erwiesen und wurde in großem Umfang für Aufgaben wie Bildunterschriften, Spracherkennung und Sprachübersetzung eingesetzt.Es besteht nun die Hoffnung, dass dieselben Techniken in der Lage sein werden, tödliche Krankheiten zu diagnostizieren, millionenschwere Handelsentscheidungen zu treffen und unzählige andere Dinge zu tun, um ganze Branchen zu verändern.Aber das wird nicht passieren – oder sollte nicht passieren – es sei denn, wir finden Wege, Techniken wie Deep Learning für ihre Ersteller verständlicher und für ihre Benutzer rechenschaftspflichtig zu machen.Andernfalls ist es schwierig vorherzusagen, wann Ausfälle auftreten könnten – und es ist unvermeidlich, dass sie auftreten werden.Das ist einer der Gründe, warum Nvidias Auto noch experimentell ist.Bereits jetzt werden mathematische Modelle verwendet, um festzustellen, wer eine Bewährungsstrafe verhängt, wer einen Kredit bekommt und wer für einen Job eingestellt wird.Wenn Sie Zugang zu diesen mathematischen Modellen erhalten könnten, wäre es möglich, ihre Argumentation zu verstehen.Aber Banken, das Militär, Arbeitgeber und andere wenden sich jetzt komplexeren maschinellen Lernansätzen zu, die die automatisierte Entscheidungsfindung völlig undurchschaubar machen könnten.Deep Learning, der häufigste dieser Ansätze, stellt eine grundlegend andere Art dar, Computer zu programmieren.„Es ist ein Problem, das bereits relevant ist und in Zukunft noch viel relevanter werden wird“, sagt Tommi Jaakkola, Professor am MIT, der an Anwendungen des maschinellen Lernens arbeitet.„Ob es sich um eine Investitionsentscheidung, eine medizinische Entscheidung oder vielleicht eine militärische Entscheidung handelt, Sie wollen sich nicht nur auf eine ‚Black Box‘-Methode verlassen.“Es gibt bereits ein Argument dafür, dass die Möglichkeit, ein KI-System darüber zu befragen, wie es zu seinen Schlussfolgerungen gelangt ist, ein Grundrecht ist.Ab Sommer 2018 kann die Europäische Union verlangen, dass Unternehmen den Nutzern eine Erklärung für Entscheidungen geben können, die automatisierte Systeme treffen.Dies ist möglicherweise unmöglich, selbst für Systeme, die auf den ersten Blick relativ einfach erscheinen, wie z. B. Apps und Websites, die Deep Learning verwenden, um Anzeigen zu schalten oder Songs zu empfehlen.Die Computer, die diese Dienste ausführen, haben sich selbst programmiert, und zwar auf eine Weise, die wir nicht verstehen können.Selbst die Ingenieure, die diese Apps erstellen, können ihr Verhalten nicht vollständig erklären.Das wirft verwirrende Fragen auf.Mit fortschreitender Technologie könnten wir bald eine Schwelle überschreiten, ab der der Einsatz von KI einen Vertrauensvorschuss erfordert.Sicher, wir Menschen können unsere Denkprozesse auch nicht immer wirklich erklären – aber wir finden Wege, Menschen intuitiv zu vertrauen und sie einzuschätzen.Geht das auch mit Maschinen, die anders denken und entscheiden als ein Mensch?Wir haben noch nie zuvor Maschinen gebaut, die auf eine Weise funktionieren, die ihre Schöpfer nicht verstehen.Wie gut können wir erwarten, mit intelligenten Maschinen zu kommunizieren – und mit ihnen zurechtzukommen –, die unvorhersehbar und unergründlich sein könnten?Diese Fragen führten mich auf eine Reise zum neuesten Stand der Forschung zu KI-Algorithmen, von Google bis Apple und an viele Orte dazwischen, einschließlich eines Treffens mit einem der großen Philosophen unserer Zeit.Im Jahr 2015 wurde eine Forschungsgruppe am Mount Sinai Hospital in New York inspiriert, Deep Learning auf die riesige Datenbank mit Patientenakten des Krankenhauses anzuwenden.Dieser Datensatz enthält Hunderte von Variablen zu Patienten, die aus ihren Testergebnissen, Arztbesuchen usw. stammen.Das daraus resultierende Programm, das die Forscher Deep Patient nannten, wurde mit Daten von etwa 700.000 Personen trainiert, und als es mit neuen Datensätzen getestet wurde, erwies es sich als unglaublich gut bei der Vorhersage von Krankheiten.Ohne fachmännische Anleitung hatte Deep Patient in den Krankenhausdaten verborgene Muster entdeckt, die darauf hindeuteten, wann Menschen auf dem Weg zu einer Vielzahl von Krankheiten waren, einschließlich Leberkrebs.Es gibt viele Methoden, die „ziemlich gut“ bei der Vorhersage von Krankheiten aus den Aufzeichnungen eines Patienten sind, sagt Joel Dudley, der das Mount-Sinai-Team leitet.Aber, fügt er hinzu, „das war einfach viel besser.“„Wir können diese Modelle bauen, aber wir wissen nicht, wie sie funktionieren.“Gleichzeitig ist Deep Patient etwas rätselhaft.Es scheint den Beginn psychiatrischer Störungen wie Schizophrenie überraschend gut vorherzusehen.Aber da Schizophrenie für Ärzte notorisch schwer vorherzusagen ist, fragte sich Dudley, wie das möglich war.Er weiß es immer noch nicht.Das neue Tool bietet keinen Hinweis darauf, wie es dies tut.Wenn so etwas wie Deep Patient Ärzten tatsächlich helfen wird, wird es ihnen im Idealfall die Begründung für seine Vorhersage liefern, ihnen versichern, dass es korrekt ist, und um beispielsweise eine Änderung der Medikamente zu rechtfertigen, die jemandem verschrieben werden.„Wir können diese Modelle bauen“, sagt Dudley reumütig, „aber wir wissen nicht, wie sie funktionieren.“Künstliche Intelligenz war nicht immer so.Von Anfang an gab es zwei Denkrichtungen darüber, wie verständlich oder erklärbar KI sein sollte.Viele dachten, es sei am sinnvollsten, Maschinen zu bauen, die nach Regeln und Logik argumentierten und ihr Innenleben für jeden transparent machten, der Code untersuchen wollte.Andere waren der Meinung, dass Intelligenz leichter entstehen würde, wenn Maschinen sich von der Biologie inspirieren ließen und durch Beobachtung und Erfahrung lernten.Das bedeutete, die Computerprogrammierung auf den Kopf zu stellen.Anstatt dass ein Programmierer die Befehle zur Lösung eines Problems schreibt, generiert das Programm seinen eigenen Algorithmus auf der Grundlage von Beispieldaten und einer gewünschten Ausgabe.Die Techniken des maschinellen Lernens, die sich später zu den leistungsstärksten KI-Systemen von heute entwickeln würden, folgten dem letzteren Weg: Die Maschine programmiert sich im Wesentlichen selbst.Dieser Ansatz war zunächst nur von begrenztem praktischem Nutzen und blieb in den 1960er und 70er Jahren weitgehend an den Rand des Fachgebiets beschränkt.Dann erwachten die Computerisierung vieler Branchen und das Aufkommen großer Datenmengen zu neuem Interesse.Dies inspirierte die Entwicklung leistungsfähigerer maschineller Lerntechniken, insbesondere neuer Versionen eines sogenannten künstlichen neuronalen Netzwerks.In den 1990er Jahren konnten neuronale Netze handschriftliche Zeichen automatisch digitalisieren.Aber erst zu Beginn dieses Jahrzehnts, nach mehreren cleveren Optimierungen und Verfeinerungen, zeigten sehr große – oder „tiefe“ – neuronale Netzwerke dramatische Verbesserungen in der automatisierten Wahrnehmung.Deep Learning ist für die heutige Explosion der KI verantwortlich.Es hat Computern außergewöhnliche Fähigkeiten verliehen, wie die Fähigkeit, gesprochene Wörter fast so gut zu erkennen wie ein Mensch, eine Fähigkeit, die zu komplex ist, um sie von Hand in die Maschine zu programmieren.Deep Learning hat das maschinelle Sehen verändert und die maschinelle Übersetzung dramatisch verbessert.Es wird jetzt verwendet, um alle möglichen wichtigen Entscheidungen in der Medizin, im Finanzwesen, in der Fertigung – und darüber hinaus – zu leiten.Die Funktionsweise jeder maschinellen Lerntechnologie ist selbst für Informatiker von Natur aus undurchsichtiger als ein handcodiertes System.Das soll nicht heißen, dass alle zukünftigen KI-Techniken gleichermaßen unbekannt sein werden.Doch Deep Learning ist von Natur aus eine besonders dunkle Black Box.Sie können nicht einfach in ein tiefes neuronales Netzwerk schauen, um zu sehen, wie es funktioniert.Die Argumentation eines Netzwerks ist eingebettet in das Verhalten Tausender simulierter Neuronen, die in Dutzenden oder sogar Hunderten von kompliziert miteinander verbundenen Schichten angeordnet sind.Die Neuronen in der ersten Schicht erhalten jeweils eine Eingabe, wie die Intensität eines Pixels in einem Bild, und führen dann eine Berechnung durch, bevor sie ein neues Signal ausgeben.Diese Ausgaben werden in einem komplexen Netz den Neuronen in der nächsten Schicht zugeführt und so weiter, bis eine Gesamtausgabe erzeugt wird.Außerdem gibt es einen als Back-Propagation bekannten Prozess, der die Berechnungen einzelner Neuronen so optimiert, dass das Netzwerk lernt, eine gewünschte Ausgabe zu erzeugen.Die vielen Schichten in einem tiefen Netzwerk ermöglichen es, Dinge auf verschiedenen Abstraktionsebenen zu erkennen.In einem System zur Erkennung von Hunden beispielsweise erkennen die unteren Schichten einfache Dinge wie Umrisse oder Farben;höhere Schichten erkennen komplexere Dinge wie Fell oder Augen;und die oberste Schicht identifiziert alles als Hund.Derselbe Ansatz lässt sich grob gesagt auch auf andere Eingaben anwenden, die eine Maschine dazu bringen, sich selbst beizubringen: die Geräusche, die Wörter in der Sprache bilden, die Buchstaben und Wörter, die Sätze im Text bilden, oder die zum Fahren erforderlichen Lenkradbewegungen.„Es könnte Teil der Natur der Intelligenz sein, dass nur ein Teil davon einer rationalen Erklärung ausgesetzt ist.Manches davon ist einfach instinktiv.“Mit ausgeklügelten Strategien wurde versucht, das Geschehen in solchen Systemen zu erfassen und damit genauer zu erklären.Im Jahr 2015 modifizierten Forscher von Google einen Deep-Learning-basierten Bilderkennungsalgorithmus, sodass Objekte auf Fotos nicht erkannt, sondern generiert oder modifiziert werden.Indem sie den Algorithmus effektiv rückwärts laufen ließen, konnten sie die Merkmale entdecken, die das Programm verwendet, um beispielsweise einen Vogel oder ein Gebäude zu erkennen.Die resultierenden Bilder, die von einem Projekt namens Deep Dream produziert wurden, zeigten groteske, außerirdische Tiere, die aus Wolken und Pflanzen auftauchten, und halluzinatorische Pagoden, die über Wälder und Bergketten blühten.Die Bilder bewiesen, dass Deep Learning nicht völlig undurchschaubar sein muss;Sie zeigten, dass die Algorithmen vertraute visuelle Merkmale wie den Schnabel eines Vogels oder Federn anpeilen.Aber die Bilder deuteten auch an, wie unterschiedlich Deep Learning von der menschlichen Wahrnehmung ist, da es etwas aus einem Artefakt machen könnte, das wir wissen würden, um es zu ignorieren.Google-Forscher stellten fest, dass der Algorithmus, der Bilder einer Hantel generierte, auch einen menschlichen Arm generierte, der sie hielt.Die Maschine war zu dem Schluss gekommen, dass ein Arm Teil des Dings war.Weitere Fortschritte wurden unter Verwendung von Ideen erzielt, die aus den Neuro- und Kognitionswissenschaften entlehnt wurden.Ein Team unter der Leitung von Jeff Clune, einem Assistenzprofessor an der University of Wyoming, hat das KI-Äquivalent zu optischen Täuschungen eingesetzt, um tiefe neuronale Netze zu testen.Im Jahr 2015 zeigte die Gruppe von Clune, wie bestimmte Bilder ein solches Netzwerk dazu bringen können, Dinge wahrzunehmen, die nicht vorhanden sind, weil die Bilder die Muster auf niedriger Ebene ausnutzen, nach denen das System sucht.Einer von Clunes Mitarbeitern, Jason Yosinski, baute auch ein Werkzeug, das wie eine Sonde funktioniert, die in ein Gehirn gesteckt wird.Sein Werkzeug zielt auf jedes Neuron in der Mitte des Netzwerks und sucht nach dem Bild, das es am stärksten aktiviert.Die Bilder, die auftauchen, sind abstrakt (stellen Sie sich eine impressionistische Version eines Flamingos oder eines Schulbusses vor) und unterstreichen die mysteriöse Natur der Wahrnehmungsfähigkeiten der Maschine.Wir brauchen jedoch mehr als nur einen Einblick in das Denken von KI, und es gibt keine einfache Lösung.Es ist das Zusammenspiel von Berechnungen innerhalb eines tiefen neuronalen Netzwerks, das für die Mustererkennung auf höherer Ebene und die komplexe Entscheidungsfindung von entscheidender Bedeutung ist, aber diese Berechnungen sind ein Sumpf aus mathematischen Funktionen und Variablen.„Wenn Sie ein sehr kleines neuronales Netzwerk hätten, könnten Sie es vielleicht verstehen“, sagt Jaakkola.„Aber sobald es sehr groß wird und Tausende von Einheiten pro Schicht und vielleicht Hunderte von Schichten hat, wird es ziemlich unverständlich.“Im Büro neben Jaakkola sitzt Regina Barzilay, eine MIT-Professorin, die entschlossen ist, maschinelles Lernen in der Medizin anzuwenden.Vor ein paar Jahren, im Alter von 43 Jahren, wurde bei ihr Brustkrebs diagnostiziert. Die Diagnose an sich war schockierend, aber Barzilay war auch bestürzt darüber, dass modernste statistische und maschinelle Lernmethoden nicht zur Unterstützung der onkologischen Forschung oder als Anleitung eingesetzt wurden Patientenbehandlung.Sie sagt, KI habe ein enormes Potenzial, die Medizin zu revolutionieren, aber die Realisierung dieses Potenzials bedeutet, über die bloßen Krankenakten hinauszugehen.Sie stellt sich vor, mehr Rohdaten zu verwenden, von denen sie sagt, dass sie derzeit nicht ausreichend genutzt werden: „Bildgebungsdaten, Pathologiedaten, all diese Informationen.“Wie gut können wir mit Maschinen auskommen, die unberechenbar und undurchschaubar sind?Nachdem sie letztes Jahr die Krebsbehandlung beendet hatte, begannen Barzilay und ihre Studenten mit Ärzten des Massachusetts General Hospital zusammenzuarbeiten, um ein System zu entwickeln, das in der Lage ist, Pathologieberichte zu durchsuchen, um Patienten mit spezifischen klinischen Merkmalen zu identifizieren, die Forscher möglicherweise untersuchen möchten.Barzilay verstand jedoch, dass das System seine Argumentation erklären musste.Also fügte sie zusammen mit Jaakkola und einem Studenten einen Schritt hinzu: Das System extrahiert und hebt Textschnipsel hervor, die repräsentativ für ein entdecktes Muster sind.Barzilay und ihre Studenten entwickeln auch einen Deep-Learning-Algorithmus, der in der Lage ist, frühe Anzeichen von Brustkrebs in Mammographiebildern zu finden, und sie wollen diesem System auch die Möglichkeit geben, seine Argumentation zu erklären.„Man braucht wirklich eine Schleife, in der Maschine und Mensch zusammenarbeiten“, sagt Barzilay.Das US-Militär steckt Milliarden in Projekte, die maschinelles Lernen nutzen, um Fahrzeuge und Flugzeuge zu steuern, Ziele zu identifizieren und Analysten dabei zu helfen, riesige Stapel von Geheimdienstdaten zu sichten.Hier ist mehr als anderswo, noch mehr als in der Medizin, wenig Platz für algorithmische Mysterien, und das Verteidigungsministerium hat die Erklärbarkeit als zentralen Stolperstein identifiziert.David Gunning, Programmmanager bei der Defense Advanced Research Projects Agency, beaufsichtigt das Programm mit dem treffenden Namen Explainable Artificial Intelligence.Ein silberhaariger Veteran der Agentur, der zuvor das DARPA-Projekt beaufsichtigte, das schließlich zur Schaffung von Siri führte, sagt Gunning, dass die Automatisierung in unzählige Bereiche des Militärs eindringt.Geheimdienstanalysten testen maschinelles Lernen, um Muster in riesigen Mengen von Überwachungsdaten zu erkennen.Viele autonome Bodenfahrzeuge und Flugzeuge werden entwickelt und getestet.Aber Soldaten werden sich in einem Roboterpanzer, der sich ihnen nicht erklärt, wahrscheinlich nicht wohl fühlen, und Analysten werden zögern, auf Informationen ohne Begründung zu reagieren.„Es liegt oft in der Natur dieser maschinell lernenden Systeme, dass sie viele Fehlalarme erzeugen, sodass ein Intel-Analyst wirklich zusätzliche Hilfe braucht, um zu verstehen, warum eine Empfehlung ausgesprochen wurde“, sagt Gunning.In diesem März wählte DARPA 13 Projekte aus Wissenschaft und Industrie zur Finanzierung im Rahmen des Gunning-Programms aus.Einige von ihnen könnten auf der Arbeit von Carlos Guestrin, einem Professor an der University of Washington, aufbauen.Er und seine Kollegen haben einen Weg für maschinell lernende Systeme entwickelt, um eine Begründung für ihre Ergebnisse zu liefern.Im Wesentlichen findet bei dieser Methode ein Computer automatisch einige Beispiele aus einem Datensatz und serviert sie in einer kurzen Erklärung.Ein System, das entwickelt wurde, um beispielsweise eine E-Mail-Nachricht als von einem Terroristen stammend zu klassifizieren, könnte viele Millionen Nachrichten in seinem Training und seiner Entscheidungsfindung verwenden.Aber mit dem Ansatz des Washingtoner Teams könnte es bestimmte Schlüsselwörter hervorheben, die in einer Nachricht gefunden wurden.Guestrins Gruppe hat auch Möglichkeiten für Bilderkennungssysteme entwickelt, um auf ihre Argumentation hinzuweisen, indem sie die wichtigsten Teile eines Bildes hervorhebt.Ein Nachteil dieses Ansatzes und anderer ähnlicher wie dem von Barzilay besteht darin, dass die bereitgestellten Erklärungen immer vereinfacht werden, was bedeutet, dass einige wichtige Informationen auf dem Weg verloren gehen können.„Wir haben noch nicht den ganzen Traum verwirklicht, da führt KI ein Gespräch mit Ihnen und kann es erklären“, sagt Guestrin.„Von einer wirklich interpretierbaren KI sind wir noch weit entfernt.“Es muss keine Situation mit hohem Risiko wie eine Krebsdiagnose oder ein militärisches Manöver sein, damit dies zu einem Problem wird.Die Kenntnis der KI-Argumentation wird auch entscheidend sein, wenn die Technologie zu einem gemeinsamen und nützlichen Teil unseres täglichen Lebens werden soll.Tom Gruber, der das Siri-Team bei Apple leitet, sagt, dass die Erklärbarkeit ein wichtiger Aspekt für sein Team ist, wenn es darum geht, Siri zu einem intelligenteren und leistungsfähigeren virtuellen Assistenten zu machen.Gruber würde keine konkreten Pläne für die Zukunft von Siri erörtern, aber es ist leicht vorstellbar, dass Sie wissen wollen, was die Begründung war, wenn Sie eine Restaurantempfehlung von Siri erhalten.Ruslan Salakhutdinov, Direktor der KI-Forschung bei Apple und außerordentlicher Professor an der Carnegie Mellon University, sieht die Erklärbarkeit als Kern der sich entwickelnden Beziehung zwischen Menschen und intelligenten Maschinen.„Das schafft Vertrauen“, sagt er.So wie viele Aspekte des menschlichen Verhaltens unmöglich im Detail zu erklären sind, wird es der KI vielleicht nicht möglich sein, alles zu erklären, was sie tut.„Selbst wenn Ihnen jemand eine vernünftig klingende Erklärung [für seine oder ihre Handlungen] geben kann, ist diese wahrscheinlich unvollständig, und das Gleiche könnte sehr wohl für KI gelten“, sagt Clune von der University of Wyoming.„Es könnte einfach Teil der Natur der Intelligenz sein, dass nur ein Teil davon einer rationalen Erklärung ausgesetzt ist.Einiges davon ist nur instinktiv oder unbewusst oder unergründlich.“Wenn dem so ist, müssen wir vielleicht irgendwann einfach auf das Urteil der KI vertrauen oder darauf verzichten.Ebenso muss dieses Urteil soziale Intelligenz einbeziehen.So wie die Gesellschaft auf einem Vertrag über erwartetes Verhalten aufgebaut ist, müssen wir KI-Systeme so entwerfen, dass sie unsere sozialen Normen respektieren und ihnen entsprechen.Wenn wir Roboterpanzer und andere Tötungsmaschinen bauen wollen, ist es wichtig, dass ihre Entscheidungsfindung mit unseren ethischen Urteilen übereinstimmt.Um diese metaphysischen Konzepte zu untersuchen, ging ich an die Tufts University, um mich mit Daniel Dennett zu treffen, einem renommierten Philosophen und Kognitionswissenschaftler, der Bewusstsein und Geist erforscht.Ein Kapitel von Dennetts neuestem Buch From Bacteria to Bach and Back, einer enzyklopädischen Abhandlung über das Bewusstsein, legt nahe, dass ein natürlicher Teil der Evolution der Intelligenz selbst die Schaffung von Systemen ist, die in der Lage sind, Aufgaben auszuführen, von denen ihre Schöpfer nicht wissen, wie sie sie ausführen sollen.„Die Frage ist, welche Vorkehrungen wir treffen müssen, um dies weise zu tun – welche Standards fordern wir von ihnen und von uns selbst?“erzählt er mir in seinem vollgestopften Büro auf dem idyllischen Campus der Universität.Er hat auch ein warnendes Wort bezüglich der Suche nach Erklärbarkeit.„Ich denke, wenn wir diese Dinge verwenden und uns auf sie verlassen, sollten wir auf jeden Fall so genau wie möglich in den Griff bekommen, wie und warum sie uns die Antworten geben“, sagt er.Aber da es möglicherweise keine perfekte Antwort gibt, sollten wir mit KI-Erklärungen genauso vorsichtig sein wie mit den Erklärungen der anderen – egal, wie schlau eine Maschine zu sein scheint.„Wenn es nicht besser als wir erklären kann, was es tut“, sagt er, „dann vertraue ihm nicht.“Diese Geschichte war Teil unserer Ausgabe Mai/Juni 2017.Eine MIT Technology Review-Serie untersucht, wie KI einige Mächtige bereichert, indem sie Gemeinschaften enteignet, die zuvor enteignet wurden.Die Muttergesellschaft von Facebook lädt Forscher ein, die Fehler in ihrer Version von GPT-3 zu studieren und zu beseitigenOpenAIs neueste bildgebende KI ist erstaunlich – wirft aber Fragen darüber auf, was wir unter Intelligenz verstehen.Als die Nachfrage nach Datenkennzeichnung explodierte, verwandelte eine wirtschaftliche Katastrophe Venezuela in einen Ground Zero für ein neues Modell der Arbeitsausbeutung.Entdecken Sie Sonderangebote, Schlagzeilen, bevorstehende Veranstaltungen und mehr.Vielen Dank für das Absenden Ihrer E-Mail!Es sieht so aus, als wäre etwas schief gelaufen.Wir haben Probleme beim Speichern Ihrer Einstellungen.Versuchen Sie, diese Seite zu aktualisieren und sie noch einmal zu aktualisieren.Wenn Sie diese Nachricht weiterhin erhalten, kontaktieren Sie uns unter customer-service@technologyreview.com mit einer Liste der Newsletter, die Sie erhalten möchten.Unsere ausführliche Berichterstattung zeigt, was jetzt vor sich geht, um Sie auf das vorzubereiten, was als Nächstes kommt.Melden Sie sich an, um unseren Journalismus zu unterstützen.