Generative KI macht Audio-Deepfakes gefährlicher
Audio-Deepfakes, also mit Computersystemen imitierte Stimmen, entwickeln sich stetig weiter. Daraus folgt ein Anstieg aus KI unterstützten Betrugsversuchen. Der sogenannte „Enkeltrick“, bei dem sich der Täter meist als Kind oder Enkelkind des Opfers ausgibt und eine Krisensituation vorgibt, um finanzielle Unterstützung zu erlangen, ist bereits bekannt. Nun werden dabei jedoch künstliche Intelligenzen verwendet, die darauf … Generative KI macht Audio-Deepfakes gefährlicher weiterlesen
Füge diese URL in deine WordPress-Website ein, um sie einzubetten
Füge diesen Code in deine Website ein, um ihn einzubinden