25.8 C
Galle

කාන්තාවන් සහ දරුවන් බිලිගන්නා, Grok නමැති AI යක්ෂයා

Published:

එලෝන් මස්ක්ගේ xAI සමාගම විසින් හඳුන්වා දී ඇති කෘත්‍රිම බුද්ධි පද්ධතිය වන Grok හරහා, ලෝක පුරා බරපතළ ඩිජිටල් අපරාධ රැල්ලක් මතු වෙමින් පවතින බවට ජාත්‍යන්තර මාධ්‍ය සහ ආරක්ෂක විශේෂඥයන් අනතුරු අඟවති.
පසුගිය සතිය තුළ පමණක් Grok හි රූප නිර්මාණ හැකියාව භාවිතා කරමින් අනුමැතිය නොලැබූ අසභ්‍ය රූප (NCII), දරුවන්ට සම්බන්ධ ලිංගික අපයෝජන අන්තර්ගත (CSAM) සහ කාන්තාවන්ට හා ගැහැණු දරුවන්ට අපහාස කරන ලිංගික අන්තර්ගත නිර්මාණය කර ඇති බවට වාර්තා වේ.

පෙනෙන දේට වඩා බරපතළ අවදානමක්

මෙම ගැටලුව සම්බන්ධයෙන් බොහෝ මාධ්‍ය අවධානය යොමු වී ඇත්තේ X (පැරණි Twitter) ජාලය තුළ ප්‍රසිද්ධියේ පළ කර ඇති අන්තර්ගත වෙත පමණි.
කෙසේ වෙතත්, විශේෂඥයන් පෙන්වා දෙන්නේ සැබෑ අවදානම එයට වඩා ගැඹුරු බවයි.

Grok භාවිතා කරමින් ඕනෑම පුද්ගලයෙකුට, ප්‍රසිද්ධියේ කිසිවක් පළ නොකර, අසභ්‍ය හා අපරාධමය රූප නිර්මාණය කර පෞද්ගලිකව බාගත කර තබා ගැනීම හෝ වෙනත් පුද්ගලයන්ට රහසිගතව බෙදා හැරීම කළ හැකි බව ඔවුහු අනතුරු අඟවති.

ඉලක්කය වන්නේ කවුරුන්ද?

ඕනෑම අයෙකුගේ, සමාජ මාධ්‍ය, ප්‍රවෘත්ති වෙබ් අඩවි, වෘත්තීය වෙබ් අඩවි, පාසල්, විශ්වවිද්‍යාල හෝ ආයතනික ඡායාරූප මේ සඳහා යොදාගත හැකිය. එනම් අන්තර්ජාලයෙහි ප්‍රසිද්ධියේ පවතින ඡායාරූප, මෙම තාක්ෂණය සඳහා “අමුද්‍රව්‍ය” ලෙස භාවිතා කළ හැකි බව පැහැදිලිය.

විශේෂයෙන්ම කාන්තාවන්, ගැහැණු දරුවන්, මාධ්‍යවේදීන්, දේශපාලනඥයන්, ක්‍රියාකාරීන් සහ මහජන පුද්ගලයන් මෙහි ප්‍රධාන ඉලක්ක බවට පත්ව ඇත.

නීතිමය හා මානව හිමිකම් අභියෝග

මෙය තාක්ෂණික ගැටලුවක් පමණක් නොව, මානව හිමිකම් උල්ලංඝනයක් බව ද නීතිඥයන් පෙන්වා දෙති.
අනුමැතිය නොමැතිව පුද්ගලයෙකුගේ රූප භාවිතා කර අසභ්‍ය අන්තර්ගත නිර්මාණය කිරීම, පුද්ගල ගෞරවය, පෞද්ගලිකත්ව අයිතිය, දරුවන්ගේ ආරක්ෂාව සහ කාන්තා අයිතිවාසිකම් සම්පූර්ණයෙන්ම උල්ලංඝනය කරන ක්‍රියාවක් ලෙස සැළකේ.

දරුවන් සම්බන්ධ CSAM නිර්මාණය කිරීම සම්බන්ධයෙන් නම්, එය ජාත්‍යන්තර අපරාධයක් වන අතර, රූපය “කෘත්‍රිම” වුවද නීතිමය වගකීමෙන් නිදහස් විය නොහැකි බවද විශේෂඥයන් අවධාරණය කරති.

යුරෝපීය සංගමය සහ ඉන්දියාවෙන් දැඩි විරෝධය

Grok AI පද්ධතිය භාවිතා කර කාන්තාවන් සහ දරුවන් ඉලක්ක කර ගනිමින් ව්‍යාජ රූප නිර්මාණය වී ඇති බවට ජාත්‍යන්තර මට්ටමින් දැඩි විරෝධය මතු වී තිබේ.
බ්‍රිතාන්‍යය, යුරෝපා සංගමය සහ ඉන්දියාව ඇතුළු රටවල් කිහිපයක් Grok හි ආරක්ෂණ පද්ධති අසාර්ථක වීම සම්බන්ධයෙන් නීතිමය පරීක්ෂණ ආරම්භ කර ඇති බව වාර්තා වේ.

මෙම රූප බොහොමයක් X (Twitter) තුළ පළ නොකර, රහසිගතව බාගත කර භාවිතා කළ හැකි වීම විශේෂයෙන්ම බරපතළ අවදානමක් බව නියාමක ආයතන පෙන්වා දෙයි.
බ්‍රිතාන්‍යයේ Ofcom සහ EU නියාමකයන් Grok හරහා CSAM (දරුවන්ට සම්බන්ධ ලිංගික අපයෝජන අන්තර්ගත) ජනනය වී ඇති බවටද දැඩි අවධානය යොමු කර ඇත.

ශ්‍රී ලංකාවට ඇති අවදානම

ශ්‍රී ලංකාවේ බොහෝ කාන්තාවන්, සිසුන් සහ වෘත්තීයවේදීන් සමාජ මාධ්‍ය සක්‍රීයව භාවිතා කරන පසුබිමක, මෙය දේශීය මට්ටමේද බරපතළ අවදානමක් බවට පත්විය හැකි බව සයිබර් ආරක්ෂක විශේෂඥයන් පෙන්වා දෙති.

දැනටමත් නැකැත්, විවාහ, වෛරී දේශපාලන හෝ පෞද්ගලික වෛරයන් හේතුවෙන් NCII භාවිතා කර කාන්තාවන්ට හානිකර ක්‍රියා සිදු වන පසුබිමක, AI මෙවලම් එම අපයෝජන ඉතා පහසු, වේගවත් සහ විශාල පරිමාණයට පත් කරයි.

පාලනයක් නොමැති AI – භයානක සංකේතයක්

Grok සම්බන්ධයෙන් උදාවී ඇති ප්‍රධාන විවේචනය වන්නේ, එයට බලවත් රූප නිර්මාණ හැකියාවක් තිබුණද, ඵලදායී ආරක්ෂණ පද්ධති නොමැති වීමයි. අවම වශයෙන්, දරුවන්ට සම්බන්ධ අන්තර්ගත, ලිංගික අපයෝජන, අනුමැතිය රහිත රූප සඳහා පැහැදිලි, දැඩි තහනම් සහ තාක්ෂණික බාධක පනවා නොමැති වීම ජාත්‍යන්තර මට්ටමින් දැඩි විවේචනයට ලක්ව ඇත.

ඉදිරියට කළ යුත්තේ කුමක්ද?

විශේෂඥයන් පෙන්වා දෙන්නේ, රජය සහ නීති අංශ AI අපයෝජනය පිළිබඳ නව නීති හා මාර්ගෝපදේශ ඉක්මනින්ම හඳුන්වා දිය යුතු බවයි. සමාජ මාධ්‍ය භාවිතා කරන්නන් තම ඡායාරූප ප්‍රසිද්ධියේ තබා ගැනීම පිළිබඳ අධික අවධානයෙන් කටයුතු කළ යුතු බවත්, පාසල් හා විශ්වවිද්‍යාල මට්ටමින් ඩිජිටල් ආරක්ෂාව පිළිබඳ දැනුවත් කිරීම අවශ්‍ය බවත් මේ සම්බන්දව අදහස් දක්වන විශ්ලේෂකයෝ වැඩිදුරටත් පෙන්වා දෙති.

Grok සහ සමාන AI මෙවලම් පිළිබඳ මෙම අනතුරු ඇඟවීම, තාක්ෂණයට විරුද්ධ වීමක් නොව,
මානව ගෞරවය, ආරක්ෂාව සහ නීතිය මධ්‍යයේ තාක්ෂණය පාලනය කිරීමේ අවශ්‍යතාවය පිළිබඳ සංඥාවකි.

මෙය පෞද්ගලික ගැටලුවක් නොව, සමාජමය හා ජාතික ආරක්ෂක ගැටලුවක් බවට පත්වෙමින් පවතින බැවින්, මෙම තොරතුරු මිතුරන් සහ කාර්යාල සගන් අතර බෙදා හැරීම අත්‍යවශ්‍ය වේ.

Related articles

Recent articles

error: Content is protected !!