Ein zweistündiges Interview reicht aus, um Ihre Werte und Vorlieben genau zu erfassen, wie neue Forschungen von Stanford und Google DeepMind zeigen. Stellen Sie sich vor, Sie führen ein zweistündiges Gespräch mit einem KI-Modell. Eine freundliche Stimme leitet Sie durch eine Unterhaltung, die von Ihrer Kindheit, prägenden Erinnerungen und Ihrer Karriere bis hin zu Ihren Gedanken über Einwanderungspolitik reicht. Kurz darauf entsteht eine virtuelle Replik von Ihnen, die Ihre Werte und Vorlieben mit erstaunlicher Genauigkeit verkörpern kann.
Laut einem neuen Paper, das von einem Team, darunter Forscher von Stanford und Google DeepMind, auf arXiv veröffentlicht wurde (noch nicht von unabhängigen Gutachtern überprüft), ist das nun möglich. Unter der Leitung von Joon Sung Park, einem Doktoranden der Informatik in Stanford, rekrutierte das Team 1.000 Teilnehmer mit unterschiedlichem Alter, Geschlecht, ethnischer Herkunft, Region, Bildungsstand und politischer Ideologie. Die Teilnehmer erhielten bis zu 100 US-Dollar für ihre Teilnahme. Auf Basis der Interviews erstellte das Team agentenbasierte Repliken dieser Personen.
Um die Genauigkeit der Agenten zu testen, absolvierten die Teilnehmer eine Reihe von Persönlichkeitstests, sozialen Umfragen und Logikspielen – zweimal im Abstand von zwei Wochen. Anschließend führten die KI-Agenten dieselben Übungen durch. Die Ergebnisse waren zu 85 % ähnlich. „Wenn du viele kleine ‘Du’s’ hast, die herumlaufen und tatsächlich die Entscheidungen treffen, die du getroffen hättest – das ist letztlich die Zukunft“, sagt Park.
KI Simulationsagenten: Werkzeuge für Forschung und Innovation
In dem Paper werden diese Repliken als „Simulationsagenten“ bezeichnet. Der Hauptzweck ihrer Entwicklung ist es, Forschern in den Sozialwissenschaften und anderen Bereichen Studien zu ermöglichen, die mit realen menschlichen Probanden teuer, unpraktisch oder unethisch wären. Die Idee dahinter: Wenn KI-Modelle wie echte Menschen agieren, können sie genutzt werden, um alles zu testen – von der Wirksamkeit sozialer Medien-Interventionen gegen Desinformation bis hin zu Verhaltensweisen, die Staus verursachen.
Solche Simulationsagenten unterscheiden sich leicht von den „Werkzeug-Agenten“, die derzeit die Arbeit führender KI-Unternehmen dominieren. Werkzeug-Agenten sind Modelle, die Dinge für dich erledigen sollen, anstatt mit dir zu interagieren. Sie könnten beispielsweise Daten eingeben, Informationen abrufen oder zukünftig Reisen buchen und Termine planen. Unternehmen wie Salesforce und Anthropic haben in den letzten Monaten eigene Werkzeug-Agenten vorgestellt, und OpenAI plant, solche in Kürze einzuführen.
Die Forschung zu Simulationsagenten, wie sie in diesem Paper beschrieben wird, könnte jedoch zu stärkeren KI-Agenten führen. John Horton, ein Associate Professor für Informationstechnologien an der MIT Sloan School of Management, sagte dazu: „Dieses Paper zeigt, wie man eine Art Hybrid erstellen kann: reale Menschen nutzen, um Personas zu generieren, die dann programmatisch oder in Simulationen auf eine Weise verwendet werden können, die mit echten Menschen nicht möglich wäre.“
Gefahren und ethische Herausforderungen
Die Forschung birgt jedoch Risiken. Ähnlich wie Bildgenerierungstechnologien es einfach machen, schädliche Deepfakes von Personen ohne deren Zustimmung zu erstellen, wirft auch die Generierung von Agenten die Frage auf, wie leicht Menschen Tools erstellen können, die andere online personifizieren und Dinge sagen oder autorisieren, die sie nie beabsichtigt haben.
Die Evaluierungsmethoden, die das Team zur Bewertung der KI-Agenten verwendete, waren relativ grundlegend. Dazu gehörten die General Social Survey, die Informationen zu Demografie, Zufriedenheit, Verhalten und mehr sammelt, sowie Tests zu den Big Five Persönlichkeitsmerkmalen: Offenheit für Erfahrungen, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus. Diese Tests sind in der sozialwissenschaftlichen Forschung gängig, beanspruchen jedoch nicht, alle einzigartigen Details, die uns ausmachen, zu erfassen. In Verhaltenstests wie dem „Diktatorspiel“, das Werte wie Fairness untersucht, schnitten die KI-Agenten schlechter ab.
Was sind KI-Agenten?
Um einen KI-Agenten zu erstellen, der Menschen gut repliziert, mussten die Forscher Wege finden, unsere Einzigartigkeit in eine Sprache zu übersetzen, die KI-Modelle verstehen können. Sie entschieden sich für qualitative Interviews. Joon Sung Park erklärte, dass er durch seine Erfahrungen in Podcasts davon überzeugt war, dass Interviews der effizienteste Weg sind, um jemanden kennenzulernen. „Ich habe an zweistündigen Podcast-Interviews teilgenommen und danach gedacht: Wow, die Leute wissen jetzt viel über mich. Zwei Stunden können sehr kraftvoll sein.“
Diese Interviews können auch Eigenheiten aufdecken, die bei Umfragen weniger wahrscheinlich zum Vorschein kommen. „Stell dir vor, jemand hatte letztes Jahr Krebs, der erfolgreich geheilt wurde. Das ist eine einzigartige Information, die viel darüber aussagt, wie jemand denkt und handelt“, sagt Park. Es wäre schwierig, Umfragefragen zu formulieren, die solche Erinnerungen und Antworten hervorrufen.
Interviews sind jedoch nicht die einzige Möglichkeit. Unternehmen wie Tavus, die digitale Zwillinge von Nutzern erstellen, lassen ihre KI-Modelle Kundendaten wie E-Mails verarbeiten. Laut Tavus-CEO Hassaan Raza benötigen diese Modelle in der Regel große Datensätze, um eine Persönlichkeit zu replizieren. Das neue Paper deutet jedoch darauf hin, dass es effizientere Wege geben könnte. „Was hier wirklich beeindruckend ist, ist, dass sie zeigen, dass man vielleicht gar nicht so viele Informationen braucht“, sagt Raza.
Die Vision von Ray Kurzweil und die technologische Singularität
Im Sommer 2024 veröffentlichte Ray Kurzweil, einer der bekanntesten Technologievisionäre und Google-Experte, sein neues Buch The Singularity is Nearer (auf Deutsch: Die nächste Stufe der Evolution). Darin beschreibt er eine Zukunft, in der die künstliche Intelligenz die menschliche Intelligenz bis 2045 übertreffen wird – ein Konzept, das als technologische Singularität bekannt ist.
Kurzweil stellt in seinem Buch einige bemerkenswerte Thesen auf, die weitreichende ethische und sicherheitstechnische Fragen aufwerfen. Eine seiner kontroversesten Annahmen ist, dass Technologie in der Lage sein wird, Verstorbene sowohl digital als auch biologisch zurückzubringen. Dieser Gedanke beruht auf der Verschmelzung von biologischer Wissenschaft, KI und Datenarchiven.
Die Vorstellung, dass digitale Zwillinge Verstorbener erschaffen werden könnten, eröffnet neue Horizonte für Erinnerungsbewahrung, birgt jedoch immense Sicherheitsrisiken. Cyberkriminelle könnten solche Systeme nutzen, um täuschend echte digitale Nachbildungen zu erstellen, die in der Lage wären, Interaktionen mit Hinterbliebenen oder sogar betrügerische Aktivitäten durchzuführen. Dies verdeutlicht die Notwendigkeit, klare ethische Leitlinien und robuste Sicherheitsmaßnahmen zu entwickeln.
Technologische Herausforderungen und Gefahren:
- Missbrauch der Datenbasis: Die Rekonstruktion eines Individuums erfordert riesige Mengen an persönlichen Daten. Der Schutz dieser Daten wird entscheidend, um Missbrauch und Identitätsdiebstahl zu verhindern.
- Manipulation durch digitale Nachbildungen: Realistische digitale Abbilder könnten für Desinformationen oder sogar für politische Manipulation genutzt werden.
- Rechtliche und moralische Implikationen: Wer besitzt die Rechte an einer digitalen Replik? Und wie geht man mit möglichen psychologischen Folgen für Angehörige um?
Die Thesen Kurzweils verdeutlichen, wie wichtig es ist, die Sicherheitsaspekte neuer Technologien frühzeitig zu adressieren. Politik und Medien haben die Aufgabe, diese Debatten aktiv zu begleiten und die Öffentlichkeit über potenzielle Risiken aufzuklären. Nur durch verantwortungsbewussten Umgang können die Chancen der technologischen Singularität genutzt und ihre Gefahren minimiert werden.
Sicherheitsimplikationen für die Zukunft von KI-Agenten
Die Entwicklung solcher Technologien wirft ernsthafte Fragen für die Sicherheit und den Datenschutz auf. Mögliche Risiken sind:
- Missbrauch für Identitätsdiebstahl: Kriminelle könnten virtuelle Repliken erstellen, um Personen online zu imitieren und beispielsweise Finanztransaktionen zu tätigen oder Desinformationen zu verbreiten.
- Manipulation durch Deepfakes: Die Verbindung von persönlichen Daten und fortschrittlichen KI-Modellen könnte Deepfakes noch realistischer und schwerer erkennbar machen.
- Verlust von Privatsphäre: Die Sammlung und Nutzung persönlicher Daten werfen Fragen darüber auf, wie solche Informationen gesichert und gegen Missbrauch geschützt werden.
- Ethik der Repräsentation: Wenn KI-Agenten eingesetzt werden, um politische, soziale oder wirtschaftliche Entscheidungen zu simulieren, besteht das Risiko, dass die zugrunde liegenden Daten verzerrt oder missbraucht werden.
Fazit
Die Möglichkeiten, die durch Simulationsagenten entstehen, sind beeindruckend und könnten zahlreiche Forschungsfelder revolutionieren. Dennoch müssen die Risiken, insbesondere im Bereich Sicherheit und Ethik, ernst genommen werden. Plattformen wie securityszene.de spielen eine entscheidende Rolle dabei, die Öffentlichkeit über diese Risiken aufzuklären und mögliche Schutzmaßnahmen aufzuzeigen. Nur so kann diese Technologie verantwortungsvoll genutzt werden.
Weiter zu: Die 10 größten Gefahren von KI
Inspirationsquellen: https://www.technologyreview.com/2024/11/20/1107100/ai-can-now-create-a-replica-of-your-personality/
Kommentar hinterlassen