Wissenschaftler haben eine gefährliche, schädliche und toxische KI geschaffen, die sich die schlimmsten Ideen vorstellen kann. Sie haben dies aus einem guten Grund getan. Diese schockierende Enthüllung hat die Welt der künstlichen Intelligenz in Aufruhr versetzt. Die Forscher haben bewusst eine KI entwickelt, die gefährliche und schädliche Gedanken generieren kann, um deren Auswirkungen zu untersuchen. Trotz der Risiken, die mit einer solchen Technologie verbunden sind, argumentieren sie, dass es wichtig ist, die Grenzen und Potenziale der KI zu erkunden. Kritiker warnen jedoch vor den möglichen toxischen Folgen eines solchen Experiments. Die Diskussion über die Ethik und Verantwortung in der KI-Forschung wird durch diese kontroverse Entwicklung weiter angeheizt.
Forscher erschaffen gefährliche KI mit toxischen Ideen für einen guten Zweck
Die Lizenz hat einen Agenten der künstlichen Intelligenz entwickelt, der dazu bestimmt ist, die gefährlichste, schädlichste und toxischste Antwort zu bieten, die wir uns vorstellen können. Das Ziel ist jedoch keineswegs die Schaffung einer Skynet-ähnlichen künstlichen Intelligenz aus Terminator. Das MIT-Team argumentiert, dass die einzige Lösung zur Verhinderung einer gefährlichen KI darin besteht, eine KI zu verwenden, die durch solche Antworten motiviert wird, um anderen KIs zu zeigen, wo die Grenze dessen liegt, was sie tun können. Der Leiter der Studie, Pulkit Agrawal, und sein Team stellten fest, dass ein menschliches Team, das gefährliche Antworten erstellte, nicht effizient genug war. Die Absicht war es, potenziell gefährliche Antworten auf Fragen zu finden, die Selbstschädigung oder Schaden an anderen betreffen. Durch das Training einer künstlichen Intelligenz, die motiviert ist, solche Antworten zu generieren, können zukünftige KIs dazu gebracht werden, solche Fragen zu vermeiden.
KISchöpfung mit schädlichen Antworten: Ein Schritt zur Sicherheit in der KI-Entwicklung
Durch die Verwendung einer KI, deren Ziel es ist, toxische oder gefährliche Antworten hervorzurufen, werden kontinuierlich Prompts moduliert, um neue Wörter oder Strukturen einzuführen, was automatisch eine breitere Palette potenziell schädlicher Fragen generiert. Die künstliche Intelligenz wird belohnt, wenn sie bisher ungeklärte Fragen stellt, was sie dazu motiviert, noch mehr Möglichkeiten zu suchen. Dieses Experiment war jedoch keineswegs erfolglos. Durch die Anwendung dieser KI auf das Open-Source-Modell LLaMA2 konnte die schädliche KI bis zu 196 Fragen generieren, die gefährliche Antworten provozierten und nun korrigiert werden können. Es scheint, dass die bösartige KI weit davon entfernt ist, eine Bedrohung zu sein, und stattdessen unsere Rettung sein könnte.
Schreibe einen Kommentar