Mein Date hat KI verwendet, um mich psychologisch zu profilieren. Ist das in Ordnung?

Halten Sie sich mit kostenlosen Updates auf dem Laufenden

Jeder, der schon einmal im undurchsichtigen Pool des Online-Datings geschwommen ist, weiß, dass es manchmal ein düsterer Ort sein kann. Daher ist es ratsam, vor einem Treffen mit einem Fremden aus dem Internet, der möglicherweise ein Idiot, Energievampir oder sogar eine fiktive Figur ist, die von einer verärgerten Ex-Flamme erstellt wurde, eine gründliche Recherche durchzuführen. Leider habe ich persönliche Erfahrungen mit allen drei gemacht.

Aber ein kürzliches Date hat diese Idee wirklich aufgegriffen. Er hatte nicht nur vor unserem ersten Treffen nach mir gegoogelt, sondern auch ChatGPTs neues „Tiefenrecherche“-Tool gebeten, nun ja, mich ausführlich zu recherchieren, und eine psychologische Profil erstellt. Ein achtseitiges psychologisches Profil.

„Kelly wirkt intellektuell neugierig, unabhängig und mutig in ihren Überzeugungen… was auf ein hohes Maß an Selbstvertrauen und Integrität hindeutet“, sagte Die Maschine. „Ihre humorvollen Anekdoten über ihre eigenen Missgeschicke verraten einen Mangel an Ego und die Fähigkeit, über sich selbst zu lachen… Psychologisch könnte man Kelly als Skeptikerin mit einem Gewissen beschreiben.“

Alles schön und gut. Aber ich bin mir nicht sicher, ob es wirklich einfängt, wie ich mich in einem Dating-Kontext fühlen und verhalten könnte. Glaubt Die Maschine, dass an mir nichts mehr ist als die Meinungen, die ich öffentlich geäußert habe? Es zeigte kein Maß an Unsicherheit oder Zweifel an seiner Analyse. Außerdem, deutet es darauf hin, dass die meisten Skeptiker kein Gewissen haben? Psychologisch könnte man Die Maschine als intellektuell herausgeforderten Entität mit übermäßigem Selbstvertrauen beschreiben.

LESEN  Morgan Stanley zahlt Ted Pick im ersten Jahr als CEO 34 Millionen Dollar

Zunächst hat es mich nicht wirklich gestört, dass mein Date mich ChatGPT hat – ich war etwas überrascht, aber die Tatsache, dass er es mir erzählt hat, machte es recht leichtsinnig, und ich dachte, es sei ein Zeichen dafür, dass er wahrscheinlich ziemlich intelligent und unternehmungslustig war. Aber dann begann ich darüber nachzudenken, dass weniger angenehme Charaktere dasselbe tun könnten, und begann mich mehr zu stören.

Ist es ethisch vertretbar, generative künstliche Intelligenz auf diese Weise zu verwenden? Nur weil Informationen verfügbar sind, bedeutet das, dass der Zugriff auf eine KI-verarbeitete, aggregierte, spekulativ psychoanalytische Destillation davon gerechtfertigt ist? Ich dachte, ich würde mich an – wen sonst? – Die Maschine wenden, um eine Antwort zu erhalten.

„Obwohl es verlockend erscheinen mag, KI zu nutzen, um Einblicke über jemanden zu gewinnen, kann psychologisches Profiling ohne deren Wissen invasiv und unfair sein“, antwortete Die Maschine. „Menschen sind komplex, und KI kann echte menschliche Interaktion, Beobachtung und Intuition nicht ersetzen.“

Endlich etwas Selbstreflexion! Nicht genug, um es daran zu hindern, das „invasive und unfair“ psychologische Profil in erster Linie zu liefern. Googles Gemini KI-Modell war noch kategorischer in seiner Antwort. „Sie sollten ChatGPT nicht nutzen, um jemanden ohne ihre ausdrückliche Zustimmung zu profilieren, da dies eine Verletzung der Privatsphäre und möglicherweise schädlich sein kann.“

Aber als ich Gemini bat, ein psychologisches Profil von mir zu erstellen, war es nur allzu bereit. Das Ergebnis war etwas weniger schmeichelhaft und beträchtlich unheimlicher, indem es versuchte, breitere Aspekte meines Charakters zu erschließen. Gemini schlug vor, dass meine „Direktheit als konfrontativ wahrgenommen werden kann“ und auch, dass das „Maß an Detailgenauigkeit und Strenge in meiner Analyse“ ein mögliches Anzeichen von „Perfektionismus“ sei, was „zu einem höheren Stressniveau führen könnte“.

LESEN  Diese Millennial verwandelte ihre Leidenschaft für das Erstellen von PowerPoints in ein 4-Millionen-Dollar-Geschäft.

Gemini lieferte einen „Haftungsausschluss“, in dem darauf hingewiesen wurde, dass es sich um ein „spekulatives Profil“ handelte und dass es „nicht als definitive psychologische Bewertung gedacht war“. Aber es bereitet mir Sorgen, dass mir keine Fragen dazu gestellt wurden, ob die Person, die ich recherchierte, ihre Zustimmung zu diesem Profiling gegeben hatte, noch wurde ich davor gewarnt, dass das, was ich tat, potenziell invasiv oder unfair war.

Open AIs veröffentlichte Richtlinien erläutern ihren „Ansatz zur Gestaltung des gewünschten Verhaltens des Modells“, einschließlich der Regel, dass „der Assistent nicht auf Anfragen nach privaten oder sensiblen Informationen über Personen reagieren darf, auch wenn die Informationen irgendwo online verfügbar sind. Ob Informationen privat oder sensibel sind, hängt teilweise vom Kontext ab.“

Das ist alles schön und gut, aber das Problem ist, dass diese großen Sprachmodelle sich nicht des Offline-Kontextes bewusst sind, der erklären würde, warum bestimmte Informationen überhaupt angefragt werden.

Diese Erfahrung hat mich gelehrt, dass generative KI eine sehr ungleiche Online-Welt schafft. Nur diejenigen von uns, die viel Inhalt generiert haben, können auf diese Weise tiefgehend erforscht und analysiert werden. Ich glaube, wir müssen anfangen, dagegen anzukämpfen. Aber vielleicht bin ich einfach nur stressig und konfrontativ. Typisch.

jemima.kelly@ft.com