Ein großer Teil der Kommunikation im Maklerbüro findet schriftlich statt. Angebotsmails, Rückfragen, Weiterleitungen oder Anträge gehören zum Alltag. Künstliche Intelligenz ist hier längst im Einsatz. KI formuliert Texte vor, Makler prüfen, passen an und versenden. Für Kunden ist dabei kaum erkennbar, dass der Text nicht direkt vom Makler selbst stammt. Damit ist der erste Schritt in Richtung eines digitalen KI-Klons bereits Realität.
Wenn Fotos vom Makler entstehen, die nie geschossen wurden
Auf Basis vorhandener Fotos lassen sich heute realistische neue Bilder erzeugen. Der Makler erscheint in einem Büro, im Kundengespräch oder auf Veranstaltungen, die so nie stattgefunden haben. Erste Makler nutzen solche KI-Bilder bereits für Social Media, Präsentationen oder Webseiten. Der Vorteil liegt auf der Hand: maximale Sichtbarkeit ohne zeitaufwendige Fotoshootings.
KI-Avatare: Wenn der digitale Doppelgänger spricht
Noch einen Schritt weiter gehen KI-Avatare. Dabei handelt es sich um sich bewegende digitale Abbilder, die aussehen und sprechen wie der Makler. Mit diesen KI-Avataren können Social-Media-, Erklär- oder Begrüßungsvideos erstellt werden. Und das in nur wenigen Minuten. Die Technologie wird immer besser, und für den Kunden wirkt es so, als würde der Makler selbst sprechen. Stimme, Tonfall und Erscheinung sind vertraut. Tatsächlich steht der Makler jedoch nicht vor der Kamera.
Wenn KI-Avatare mit Versicherungswissen antworten
KI-Avatare können inzwischen mehr als vorgefertigte Inhalte abspielen. Sie lassen sich mit Versicherungswissen hinterlegen. Dazu zählen Produktinformationen, Prozessbeschreibungen oder häufige Kundenfragen. Der Support-Avatar antwortet im Stil des Maklers und greift auf hinterlegte Inhalte zurück. Eine individuelle Beratung findet dabei nicht statt, wohl aber eine erste Orientierung und Einordnung.
Deepfakes: Wenn die eigene Identität missbraucht wird
Der Begriff Deepfake bezeichnet täuschend echte, KI-manipulierte Medieninhalte. Problematisch wird es vor allem dann, wenn reale Personen ohne ihr Wissen oder ihre Einwilligung eingesetzt werden und so Identität oder Vertrauen missbraucht werden. Die Technologien zur Erzeugung realistischer Inhalte haben demnach auch eine zweite Seite. Deepfakes können Aussagen suggerieren, die nie getätigt wurden, oder gezielt Vertrauen missbrauchen.
Seite 1 KI-Klon des Maklers: Wo digitale Doppelgänger eingesetzt werden
Seite 2 Transparenz wird zur Pflicht
- Anmelden, um Kommentare verfassen zu können