Kurze Bytes: AI entwickelt sich jeden Tag besser und besser. Die negativen Folgen einer intelligenten KI können jedoch nicht ignoriert werden. DeepMind, eine in Großbritannien ansässige KI-Abteilung von Google, hat eine KI-Sicherheitsgruppe eingerichtet, um gefährliche AIs zu kontrollieren.

Künstliche Intelligenz macht Computer intelligenter, indem sie ihnen die Möglichkeit geben, wie Menschen zu denken und sie in den nächsten Jahren sogar zu übertreffen.

Solche Systeme werden als helfende Hände des Menschen angesehen.Es kann jedoch nicht ausgeschlossen werden, dass diese Denkmaschinen eines Tages in den Arsch treten und die Kontrolle über unser Rennen übernehmen. Stephen Hawkings - der die schlecht gemanagte Entwicklung der KI kritisiert hat - sprach letzten Monat an der Cambridge University über die Folgen der KI-Beförderung, wo er sagte, dass die Entwicklung der KI entweder die beste sein kann oder das schlechteste, was der Menschheit je passiert ist.

An diesem Tag wäre es zu spät, um zu bedauern und zu erkennen, dass wir eine Atomwaffe für das Aussterben der Menschheit geschaffen haben. DeepMind ist ein bekannter Name auf dem Gebiet der künstlichen Intelligenz. Sie haben bereits vorausgesetzt, was das KI-System werden könnte, und sie haben bereits mit den Vorbereitungen begonnen.

Laut Business Insider wird unter DeepMinds Dach eine KI-Sicherheitsgruppe gebildet, um die Entwicklung der Systeme für künstliche Intelligenz im Auge zu behalten und sicherzustellen, dass sich diese in etwas verwandelt, das für die Gesundheit der Menschen nicht gut ist.

Viktoriya Krakovna (@vkrakovna), Jan Leike (@janleike) und Pedro A. Ortega (AdaptiveAgents) sind die drei Personen, die kürzlich als Research Scientists als Teil der KI-Sicherheitsgruppe bei DeepMind ernannt wurden. Über die Gruppe sind nicht viele Details verfügbar.

Die AI-Sicherheitsgruppe wird daran arbeiten, die Gefahren durch die AI-Entwicklung zu reduzieren.

Krakovna ist auch Mitbegründer des Future of Life Institute in Boston. Das Institut - unterstützt von bekannten Namen wie Morgan Freeman, Stephen Hawkings, Elon Musk - arbeitet daran, Bedrohungen der menschlichen Gesellschaft durch KI, Atomkraft usw. zu beseitigen.

Jan Leike ist wissenschaftlicher Mitarbeiter am Future of Humanity Institute der University of Oxford. Seine Forschungsarbeit zielt darauf ab, maschinelles Lernen robust und vorteilhaft zu gestalten.

Pedro Ortega, der unter dem Namen AdaptiveAgents bekannt ist, ist Doktorand. Diplomingenieur an der University of Cambridge. Bevor er zu DeepMind kam, war er Postdoktorand an der University of Pennsylvania.

Wenn Sie etwas hinzufügen möchten, teilen Sie uns dies in den Kommentaren mit.

Mehr über die KI von Google:

  • Die Lippenleseki von Google besiegt einen Pro-Menschen nach 5000 Stunden Fernsehen
  • Google AI hat gerade seine eigene Geheimsprache erfunden und es ist wirklich erstaunlich

Arbeitete Für Sie: Robert Gaines & George Fleming | Möchten Sie Uns Kontaktieren?

Kommentare Auf Der Website: