
Bakı. Trend:
Cümə günü “OpenAI” süni intellekt şirkəti dinləyiciləri aldatmaq
üçün nəzərdə tutulan səs saxtakarlığının qarşısını almaq məqsədilə
etibarlı təhlükəsizlik tədbirləri görülənə qədər prosesi ciddi
nəzarətdə saxlamağı nəzərdə tutan səs klonlama alətini təqdim
edib.
Trend xarici mediaya istinadən xəbər verir ki, alətin
kiçikmiqyaslı testinin nəticələrini paylaşan “OpenAI” bloq
yazısında “Səs mühərriki” adlı modelin mahiyyətcə kiminsə nitqini
15 saniyəlik səs nümunəsi əsasında təkrarlaya biləcəyini qeyd
edib.
“Biz başa düşürük ki, insanların səsinə bənzəyən nitq yaratmağın
ciddi riskləri var və bu, xüsusilə ABŞ-da seçki ilində diqqət
mərkəzindədir”, – deyə San-Fransiskoda yerləşən şirkət bildirib.
“OpenAI” əlavə edib: “Biz prosesin gedişində ictimai rəylərin
nəzərə alınmasını təmin etmək üçün hökumət, media, əyləncə, təhsil,
vətəndaş cəmiyyəti və digər sahələrdən olan ABŞ və beynəlxalq
tərəfdaşlarla əlaqə saxlayırıq”.
Dezinformasiya tədqiqatçıları ucuz, istifadəsi asan və
izlənilməsi çətin olan səs klonlama alətləri sayəsində əsas seçki
ilində süni intellektlə işləyən tətbiqlərin geniş şəkildə
sui-istifadəsindən qorxurlar. “OpenAI”, öz növbəsində, bu
problemləri qəbul edərək, “sintetik səsdən sui-istifadə
potensialına görə daha geniş versiyaya ehtiyatlı və məlumatlı
yanaşdığını” bildirib.
Şirkətin ehtiyatlı açıqlaması ABŞ Prezidenti Cozef Baydenin
uzunmüddətli prezidentlik kampaniyası üçün işləyən siyasi
məsləhətçinin onun səsini təqlid edən robot zəngin arxasında
olduğunu etiraf etməsindən bir neçə ay sonra baş verib. Minnesotalı
konqresmen Din Fillips bildirib ki, bir əməliyyatçının beyni olan
süni intellekt tərəfindən edilən zəng Baydenin insanları yanvar
ayında Nyu-Hempşirdə keçirilən ilkin seçkidə səs verməməyə çağıran
səsə bənzəyirdi. Bu insident 2024-cü ildə Ağ ev uğrunda yarışda,
eləcə də bu il dünyanın digər əsas seçkilərində süni intellektlə
işləyən dərin saxta dezinformasiyadan qorxan ekspertlər arasında
təşviş yaradıb.
“OpenAI” bildirib ki, “Səs mühərriki”ni sınaqdan keçirən
tərəfdaşlar alətdən istifadə edərək səsi təkrarlanan hər hansı
şəxsin açıq və məlumatlı razılığını tələb edən qaydalar üzrə
razılaşıblar. Şirkət əlavə edib ki, eşidilən səslərin süni
intellektlə yaradıldığı zaman auditoriyaya məlumat verilməlidir.
“Biz “Voice Engine” tərəfindən yaradılan hər hansı səsin mənşəyini
izləmək üçün su nişanı, həmçinin onun necə istifadə olunmasının
proaktiv monitorinqi də daxil olmaqla, bir sıra təhlükəsizlik
tədbirləri həyata keçirmişik, -deyə “OpenAI” vurğulayıb.





























