දේශීය

කාන්තාවන් ‍නිරුවත් කරන AI හෙවත් කෘතිම බුද්ධියේ අඳුරුපැතිකඩ


Deep Fake තාක්ශනය ගැන සරලවම

Deepfake technology අවුරුදු කීපයක් පරණයි. ඔය අසභ්‍ය දර්ශන වලදී ප්‍රසිද්ධ නළු නිළියන්ගේ මුහුණත යොදාගෙන කරපු දර්ශන එහෙම අවුරුදු කීපයකට කලින් ඉඳන්ම තිබුණා. Gal Gadot Wonder Woman ට තෝරගත්ත කාලේ ඒ විදිහේ porn වීඩියෝ ක්ලිප් වගයක් හැමතැනම share උනා මතක ඇති. අද වෙනකොට deepfake තාක්ෂනය ඉතාම සරලව භාවිතා කරගන්න පුළුවන් මට්ටමට ඇවිත් තියෙනවා.පහුගිය මාස කීපය තුල මේක සෑහෙන දුරක් ඇවිත් තියෙනවා.

උදා: Softlogic එකෙන් සුනිල් පෙරේරා වගේ අයව දාල කරපු advertisement එක වගේ.

සරලව කිව්වොත් මෙකෙදි වෙන්නේ ඔයාගේ ඡායාරූපයක්,වීඩියෝ ක්ලිප් එකක්, හඬ ආදිය AI භාවිතා කරලා විකෘති කරන්න පුළුවන්. හොඳම දේ කියන්නේ මේකෙන් පුලුවන් 95% ක් ම ඇත්ත ඡායාරූපයක් විදියටම ගොඩනගන්න. දැන් තියෙනවා සරලවම deepfake audio generators එහෙමත්. ඔයාගේ කටහඬට ඉතාම සමීප මට්ටමේ වොයිස් එකක් හදන්න පුළුවන්.

Deepfake technology කියන්නේ හොඳ තාක්ෂණයක් හොඳ වැඩ වලට.තවත් ඉදිරියට දියුණු වෙවි යන තාක්ෂණයක්. හැමදේකම වගේ මේකෙත් දෙපැත්තක් තියෙනවා.

“කරන්න තියෙන්නේ අදාල ඡායාරූපය ඇතුළත් කරලා කොහොමද එන්න ඕනා කියලා දෙන්න විතරයි.”

විශේෂයෙන්ම මං මේ කියන්නේ ලංකාව වගේ රටකදී මේ තාක්ෂණික භාවිතය ගැන. සරලවම කිව්වොත් දැන් වෙනකොට තියෙනවා ටෙලිග්‍රෑම් බොට්ලා කුමක් හෝ ඡායාරූපයක් නිරුවත් කරලා ඉමෙජ් නිර්මාණය කරන්න පුළුවන් මට්ටමේ.

මේ සඳහාම නිර්මාණය වුණු ටෙලිග්‍රෑම් බොට් තියෙනවා. කරන්න තියෙන්නේ අදාල ඡායාරූපය ඇතුළත් කරලා කොහොමද එන්න ඕනා කියලා දෙන්න විතරයි.

මං උදාහරණයකට හැමෝම දන්න ජෙනිෆර් ලෝරන්ස්ගේ චායාරූපයක් දුන්නම අපට නිර්මාණය කරගන්න ඕන සම්පූර්ණ නිරුවත් ඡායාරූපයක් ද, බිකිනි ඡායාරූපයක් ද, විනිවිද පේන එකක් ද, උඩ ඇඳුම් නැතිවද, යට ඇඳුම් නැතිවද, අදාල අවයව පෙන්න ද නැතිවද, මොන වර්ගයේ ඇඳුමක් ද කොහොමද කියලා තෝරලා දෙන්න විතරයි.තප්පර 5 ක් වගේ ඇතුලත සෑහෙන දුරකට ඔරිජිනල් ඉමෙජ් එකට සමාන නමුත් අසභ්‍ය රූපයක් ජෙනේරෙට් වෙලා එනවා.

“මේක ෆොටෝ ශෝප් එකකින් එඩිට් කරනවාට වඩා පහසුයි,වගේම තාත්වික වැඩී.”

වම් පැත්තේ තියෙන්නේ මට බුකියට දාන්න පුලුවන් මට්ටමේ ජෙනේරෙට් කරපු ඡායාරූපයක්.දකුණේ පැත්තේ තියෙන්නේ ඇත්ත ඡායාරූපය.ඔය දෙකේ වෙනස්කම් බැලූ බැල්මට හොයාගන්න පුළුවන්. වම් පැත්තේ එකේ ඉඳගෙන නෙමේ ඉන්නේ. හැබැයි වෙනත් එකකින් දකුණු පැත්තේ විදියටම ඉඳගෙන ඉන්න එකක් ජෙනේරෙට් කරලා දුන්නා. ඒක සම්පූර්ණ නිරුවත් එකක් නිසා දැම්මේ නෑ. ඒ වගේම ඕක ප්‍රිමියම් වර්ෂන් එකකින් කරපු එකක් නෙමෙයි.

file

කාගේ හරි ෆොටෝ එකක් අරන් එඩිට් කරනවා නම් වැඩේ දන්නේ දන්න එකා විතරයි. දැන් මේ වගේ බොට්ල නිසා කොල්ලයි බල්ලයි දෙන්නටම මේ වගේ දෙයක් හදාගන්න පුළුවන්. මේක ෆොටෝ ශෝප් එකකින් එඩිට් කරනවාට වඩා පහසුයි,වගේම තාත්වික වැඩී.

මේ ඔක්කොම ෆ්‍රී ට්‍රයල් වලදී සෑහෙන තාත්වික විදියකට ගන්න පුළුවන් නම් ප්‍රිමියම් වර්ෂන් එකකින් 100% ක් ම වගේ ඉතාම තාත්වික විදියට හදන්න පුළුවන් ඇති.

“මෙහෙම රූපයක් එළියට ආපුවම මුලින්ම ජනගත වෙන්නේ ඇත්ත එකක් ද බොරු එකක් ද කියන එකේ නෙමේ.”

මේක කෙල්ලන්ට විතරක් නෙමේ කොල්ලන්ට උනත් පොදුයි. සමාජ මාධ්‍යය තුළ පලකරන පින්තුරක් අරගෙන ඕන අසහනකාරෙයක්ට ඒක අසභ්ය විදියට හදලා එළියට දාන්න පුලුවන්. ඒ වගේම ඕනම ආයතනයක ප්‍රධානියෙක්ව, ආගමික පූජකයෙක්, ගුරුවරයෙකව වගේ සමාජයේ යම් පිළිගැනීමක් තියෙන ඕනම කෙනෙක්ගේ ඡායාරූපයක් නිර්මාණය කරලා මෙහෙම දාන්න පුළුවන්. ඒ වගේ කෙනේක්ගේ මෙහෙම රූපයක් එළියට ආපුවම මුලින්ම ජනගත වෙන්නේ ඇත්ත එකක් ද බොරු එකක් ද කියන එකේ නෙමේ. ඕක අත්දැකීමක් තියෙනවා ඉස්කෝලෙ යන දවස්වල අපේ මිස් කෙනෙක්ගේ ෆොටෝ දාලා බිකිනි ඇඳන් ඉන්න ෆොටෝ ටිකක් එඩිට් කරලා කව්රු හරි හැම පන්තියකම වගේ දාලා තිබුණා. ඒ නම් ෆොටෝශෝප් වලින් හදපු එකක්.

විශේෂයෙන්ම මේක ගොඩක්ම බලපාන්නේ කෙල්ලන්ට. ඒකෙනුත් ඔය ලීක් කරගන්න හිතලවත් නැති අහිංසක කෙල්ලන්ට.

“ලීක් වුණත් ඒකත් AI deepfake වලින් හදපු එකක් කියලා කියන්න පුළුවන්”

මේ වගේ තමන්ගේ පින්තූරයක් අසභ්ය විදියට නිර්මාණය කරලා පළ කරලා හෝ බ්ලැක් මේල් කිරීමක් කරොත් කෙනෙක්ට කියන්න පුළුවන් ඕක deepfake නිසා ගණන් ගන්න දෙයක් නෑ කියලා.

ඒ වගේම ඇත්තම ලිංගික දර්ශනයක් ලීක් වුණත් ඒකත් AI deepfake වලින් හදපු එකක් කියලා කියන්න පුළුවන් වෙන එක වාසියක් කියලා සමහර අය කියනවා. ඕක පුද්ගලානුබද්ද දෙයක්.

මොකද හැම කෙල්ල කොල්ලම ලීක් කරගන්නේ නෑ. ලීක් කරගන්න එකාට ගානක් නැති වුණාට ලීක් කරගන්න තුන් හිතකින් වත් නැති එකෙක්ට ඔහොම එකක් නිර්මාණය වුණොත් සෑහෙන කේස්.

“නීතිමය ක්‍රියාමාර්ග ගන්න අදාල ආයතන දැනුවත් කරන්නේ කොහොමද කියලා දැනගෙන ඉන්න එක කොයිකටත් හොඳයි.”

පින්තූර විතරක් නෙමේ. විඩීයෝ වගේම සෑහෙන දුරකට කටහඬත් මේ විදියට හදාගන්න දැන් පුළුවන්. ඒ විදියටම කටහඬ දාලා අසභ්‍ය වීඩියෝ ක්ලිප් එකක් නිර්මාණය වෙලා තිබිලා පහුවදාට ඒ කොල්ලා හෝ කෙල්ලො suicide කරගෙන තිබ්බොත් වැඩක් නෑ.

ඒ වගේ අවස්ථාවකදී මේවාට ප්‍රතිචාරය දක්වන්නේ කොහොමද,නීතිමය ක්‍රියාමාර්ග ගන්න අදාල ආයතන දැනුවත් කරන්නේ කොහොමද කියලා දැනගෙන ඉන්න එක කොයිකටත් හොඳයි.

ඒ වගේම දැනට deep fake detectors කිහිපයකුත් ඇවිල්ලා තියෙනවා. ඒවල තියන sensitivity එකමත deepfake ද නැද්ද කියලා හඳුනාගන්න පුලුවන්. දැනට ෆ්‍රී තියෙනවද දන්නේ නෑ.

පිහිය අඹ කපන්න ගන්නවා නම් හොඳයි. Beli කපන්න ගත්තොත් අවුල්. විශේෂයෙන් දකුණු ආසියාතික රටවලදී මේ වගේ දේකට මුහුණ දෙන ගැහැණු ළමයා හෝ පිරිමි ළමයාට සෑහෙන මානසික පීඩනයකට ගොදුරු වෙන්න පුළුවන්.

උපුටා ගැනීමකි.:Pasindu Herath

Recent Posts

පාප්වහන්සේට දෝශාරෝපණය කළ ට්‍රම්ප් තමන් ජේසුස්ට සමාන කර ගනී.

ඇමරිකානු ජනාධිපති ඩොනල්ඩ් ට්‍රම්ප් තමන් ජේසුස් බවට අර්ථ ගන්වන ජයාරූපයක් සිය සමාජ මාධ්‍ය ගිණුමට එක්කර…

1 week ago

BREAKING අද මධ්‍යම රාත්‍රියේ සිට 18 දක්වා පෙට්‍රල් වාහන සඳහා ‘QR’ ක්‍රමය ඉවතට

අද (11) මධ්‍යම රාත්‍රියේ සිට බලපැවැත්වෙන පරිදි QR ක්‍රමවේදයට කෝටා ක්‍රමයට වාහනවලට පෙට්‍රල් නිකුත් කිරීම…

2 weeks ago

ගල් අගුරු හොදද නැද්ද බලන්න මම කාලා බලන්නේ නැහැ ඒක කරන්නේ පරීක්ෂණාගාරවල නියමිත විදියට, ජනපති අනුර කුමාර දිසානායක

අර්බුදය හමුවේ ජනතාවට සහන සැලසීමට ජනපතිගෙන් මාස තුනක් සඳහා රුපියල් බිලියන 100ක සහන පැකේජයක් මැයි…

2 weeks ago

මෙහෙම ගියොත් ලංකා රග්බි වලපල්ලටම යයිද?

ශ්‍රී ලංකාවේ රග්බි ක්‍රීඩාව වර්ධනය කිරීමේ අරමුණින් කටයුතු කරන බව පවසමින්, එයට විරුද්ධව ක්‍රියා කරන…

4 weeks ago

ඉරාන නායකයින් සාකච්ඡාවලට පිවිස ඇති නමුත් ඔවුන් එය ප්‍රකාශ කිරීමට බයයි – ට්‍රම්ප්

ඉරාන නායකයින් සාකච්ඡාවලට පිවිස ඇති නමුත් ඔවුන් එය ප්‍රකාශ කිරීමට බියෙන් පසුවන බව ඇමරිකානු ජනාධිපති…

4 weeks ago

වනස්පති ජාතික වැඩසටහන යටතේ තවත් වනාන්තර 50ක් රක්ෂිත ලෙස ආරක්ෂා කෙරේ – රක්ෂිත කෙරුණු මුලු වනාන්තර ගණන 79ක්

ලෝක වනාන්තර දිනයට සමගාමීව වනාන්තර 50ක් රක්ෂිත ලෙස ප්‍රකාශයට පත් කිරීමට අදාළ ගැසට් පත්‍රයට අත්සන්…

4 weeks ago