Dirbtinio intelekto modeliai, sukurti taip, kad tiksliai imituotų žmogaus balsą, palengvina nusikaltėliams iš pažeidžiamų žmonių išvilioti tūkstančius dolerių, praneša „ARS Technica” leidinys.
2022 m. vien JAV telefoniniai sukčiai iš naivių piliečių sugebėjo išvilioti 11 mln. dolerių, dažniausiai apsimesdami jų artimais giminaičiais.
Tuo tarpu daugelis bendrovių ir toliau aktyviai gamina dirbtinio intelekto produktus, galinčius tiksliai imituoti balsą naudojant labai nedidelį duomenų rinkinį. Tokių technologijų kontrolės klausimas tampa vis aktualesnis.
Federalinės prekybos komisijos duomenimis, JAV labai paplitę sukčiai, kurie apsimeta aukų giminaičiais. Tai buvo dažniausia sukčiavimo rūšis, apie kurią pranešta 2022 m.
Iš 36 000 pranešimų daugiau nei 5 000 aukų telefonu buvo apgautos ir iš jų išviliota 11 mln. dolerių.
Kadangi nusikaltėliai gali būti bet kurioje pasaulio vietoje, valdžios institucijoms sunku sustabdyti neteisėtus veiksmus ir pakeisti nerimą keliančią tendenciją.
Kai kuriai dirbtinio intelekto pagalba sukurtai balso kūrimo programinei įrangai užtenka vos kelių garso sakinių, kad įtikinamai atkurtų kalbėtojo kalbą su reikiamomis emocijomis.
Sukčiavimo aukoms – dažnai vyresnio amžiaus žmonėms – vis sunkiau atskirti, kada balsas yra suklastotas. Pavyzdžiui, viena pora per bitkoinų terminalą sukčiui nusiuntė 15 000 JAV dolerių, manydama, kad kalbasi su savo sūnumi.
Dirbtinis intelektas savo sukurtu balsu teigė, kad jam reikia pinigų teisinėms išlaidoms po to, kai jis pateko į automobilio avariją, per kurią žuvo JAV diplomatas.
Greičiausiai, geriausia gynyba – informuoti visus apie naują sukčiavimo rūšį, pagrįstą balso simuliacijomis. Patartina skeptiškai vertinti bet kokius prašymus atsiskaityti grynaisiais pinigais.
Prieš siunčiant lėšas geriau pabandyti susisiekti su asmeniu, kuris neva prašo pagalbos, ne balso skambučiu, o kitomis priemonėmis.
Galimybė lengvai sukurti įtikinamas balso simuliacijas jau anksčiau sukėlė skandalų.
Pavyzdžiui, „4chan” nariai įgarsindavo įžymybių rasistinius, įžeidžiančius ar smurtinius pasisakymus. Tuomet tapo aišku, kad bendrovėms, kuriančioms tokius DI modelius reikia galvoti apie papildomas apsaugos priemones, kad būtų užkirstas kelias piktnaudžiavimui šia technologija.
Priešingu atveju jos rizikuoja būti patrauktos atsakomybėn už žalą, pavyzdžiui, reputacijai padarytą žalą.
Teismai dar nenusprendė, ar įmonės bus atsakingos už žalą, padarytą dipfeeding balso technologijos ar bet kurios kitos dirbtinio intelekto technologijos. Tačiau teismams ir reguliavimo institucijoms gali būti daromas spaudimas kontroliuoti dirbtinio intelekto rinką.
Daugelis bendrovių ir toliau išleidžia dirbtinio intelekto produktus visiškai nesuvokdamos su tuo susijusios rizikos.
Visai neseniai „Microsoft” pristatė naują funkciją bandomojoje „Bing” dirbtinio intelekto versijoje, kuria galima imituoti įžymybių balsą.
Tačiau tai, ką šie balsai gali pasakyti, apsiriboja nedideliu skaičiumi temų. Matyt, taip „Microsoft” bando išvengti skandalų.
→ PAREMKITE mus savo 1,2 proc. GPM, kas jums nieko papildomai nekainuos. Ačiū labai. → Naujienlaiškis