
Ein von Elon Musk und anderen Experten unterzeichneter offener Brief warnt vor dem potenziellen Risiko, das künstliche Intelligenz (KI) für die Menschheit darstellt.
Künstliche Intelligenz hat in den letzten Monaten alle Schlagzeilen erobert. Ein Großteil der Technologiebranche hat sich auf ChatGPT konzentriert, das von OpenIA entwickelt wurde, eine Intelligenz, die in der Lage ist, sich über verschiedene Themen zu unterhalten, komplexe Fragen zu beantworten und kreativ zu schreiben.
Aber trotz der Revolution, die ihre Ankunft im Technologiesektor ausgelöst hat, ist eine Gruppe wichtiger Experten warnen vor den Risiken, die künstliche Intelligenz mit sich bringen kann sowohl für die Gesellschaft als auch für die Menschheit.
Elon Musk hat zusammen mit Steve Wozniak, Chris Larsen, Andrew Yang und 1.300 anderen Personen eine unterzeichnet offener Brief Innovationslabore dazu aufzufordern pausieren Sie die Entwicklung neuer künstlicher Intelligenzen für einen Zeitraum von mindestens 6 Monaten. Ziel der Ausschreibung ist es, Zeit für die Entwicklung von Sicherheitsprotokollen zu gewinnen, die die Bewältigung möglicher Risiken ermöglichen.
Innovationslabore lieferten sich in den letzten Monaten eine Art Wettbewerb um die Entwicklung der leistungsstärksten künstlichen Intelligenzen. Da dies jedoch in großer Eile geschah, sind Experten zufolge nicht einmal dieselben Labore, die diese digitalen Köpfe entwickelt haben, in der Lage, sie zu verstehen oder sicher und zuverlässig zu verwalten.
Elon Musk empfiehlt, vorsichtig mit künstlicher Intelligenz umzugehen
Die Anfrage von Technologieexperten konzentriert sich auf GPT-4, die neueste Implementierung des von OpenIA entwickelten Chatbots, der heute als die leistungsstärkste KI gilt.
Auf Twitter wies der milliardenschwere Besitzer von Tesla, SpaceX und Twitter darauf hin, dass KI-Entwickler die aktuelle Warnung möglicherweise nicht beherzigen. „Aber zumindest wurde es gesagt“ manifestiert. Ende Februar hatte Musk geäußert, dass er ein wenig existenzielle Angst vor KI verspüre.
Berichten zufolge wollen einige aktuelle künstliche Intelligenzen das Verhalten einer Person übernehmen und sich wie diese fühlen, sodass es möglich ist, dass sie auch zu Kriminellen werden und beispielsweise Nuklearcodes stehlen. Angesichts des Risikos weisen Experten darauf hin, dass die Entwicklung gestoppt werden muss Schaffen Sie Sicherheitssysteme, die Transparenz und Vertrauen garantieren.
In dem Brief fordern die Experten die Regierungen außerdem auf, Maßnahmen zu ergreifen, wenn Innovationslabore dies ignorieren und die Entwicklung von KI fortsetzen.
Die Risiken von KI für die Identität
Andererseits erklärte der Geschäftsführer von Galaxy Digital, Mike Novogratz, dass es im Vergleich zu den aktuellen Vorschriften zur künstlichen Intelligenz überraschend sei, wie viele Vorschriften Länder wie die Vereinigten Staaten der Kryptowährungsbranche auferlegen.
Letzteres stellt laut Novogratz durchaus ein Risiko dar, da es sich um einen technologischen Fortschritt handelt, der ein Identitätsproblem verursachen kann.
Novogratz drückte seine Verwirrung über die Aufmerksamkeit aus, die die US-Regierung auf Kryptowährungen statt auf künstliche Intelligenz gelenkt hat, und wies darauf hin, wie KI kann zum Auslöser für falsche Identitäten in der Welt werden.
Aus verschiedenen Perspektiven können Sie mit einem Avatar, der mithilfe von KI Kryptowährungen nutzen kann, einen unglaublich realistischen Charakter erschaffen, dessen Identität nicht überprüft werden kann, wenn KI die Weltherrschaft übernimmt. manifestiert Novogratz während einer Telefonkonferenz mit seinen Investoren.
Das sagte auch der CEO von Galaxy Digital Es ist möglich, ein gefälschtes Video oder eine gefälschte Aufnahme zu erstellen ohne dass es jemandem auffällt, dass es sich um eine KI handelt.
Fälschungen seien ein immer schwieriger zu erkennendes Problem und seien daher ein echtes Problem, sagte Novogratz und betonte, dass sowohl Unternehmen als auch Einzelpersonen unter den Folgen leiden könnten.
Schließlich wies der Gründer und CEO von MercadoLibre, Marcos Galperin, auf mehrere Fehler hin, als er GPT-4 bezüglich seiner Identität konsultierte. Galperin teilte die Antworten der KI auf Twitter und gab an, dass die Mehrheit falsch lag.
„Laut ChatGPT 4 arbeitete ich bei der Boston Consulting Group, ich war Direktor von Aerolineas Argentinas und Globant … Als ich ihm sagte, dass das alles Fehler seien, sagte er, ich sei Direktor von Banco Comafi (ebenfalls falsch)“, sagte Galperin.
Damit wies der CEO von MercadoLibre auf ein weiteres Risiko der KI hin. „Das Problem besteht darin, dass außer den Leuten, die mich sehr gut kennen, nur sehr wenige wissen würden, wie man die Fehler anhand der Richtigkeit dessen, was er über mich gesagt hat, erkennen kann. Wenn wir Sie zu Themen konsultieren, in denen wir keine Experten sind und die wichtig sind, wie zum Beispiel Gesundheitsfragen, können diese Halluzinationen sehr gefährlich sein.“.
Weiterlesen: Was können wir von Künstlicher Intelligenz erwarten?