பெண்களின் படத்தை நிர்வாணமாக்கும் சர்ச்சை வலைதளம் - வலுக்கும் சர்ச்சை

  • ஜேன் வேக்ஃபீல்ட்
  • தொழில்நுட்ப செய்தியாளர்
அந்தரங்க படங்கள்

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

அந்தரங்க படங்கள்

ஆர்டிஃபிஷியல் இன்டலிஜென்ஸ் எனப்படும் செயற்கை நுண்ணறிவு ஒவ்வொரு நாளும் புதிய பரிமாணங்களை எடுத்துக் கொண்டு வருகிறது.

இதில் சில முன்னேற்றங்கள் மனித குலத்துக்கு நன்மை பயக்குபவைகளாக இருக்கின்றன என்றாலும், சில அம்சங்கள் மனிதர்களையும், மனிதர்களின் தனியுரிமையையும் கடுமையாக பாதிப்பவைகளாக இருக்கின்றன.

ஆடையோடு இருக்கும் பெண்கள் புகைப்படத்தில், பெண்களின் ஆடைகளை நீக்கும் ஒரு புதிய செயற்கை நுண்ணறிவு தொழில்நுட்பம் தற்போது இணையத்தில் உலாவிக் கொண்டிருக்கிறது.

இதில் கவனிக்கத்தக்க விஷயம் என்னவென்றால் அவ்வலைதளம் பெண்கள் படத்தில் இருக்கும் ஆடைகளை மட்டும் நீக்கும் விதத்தில் வடிவமைக்கப்பட்டு இருக்கிறது.

கடந்த ஜூன் மாதத்தில் மட்டும் இந்த சர்ச்சைக்குரிய வலைதளத்தை சுமார் 50 லட்சம் பேர் பார்த்திருக்கிறார்கள் என ஒரு பகுப்பாய்வாளர் கூறுகிறார்.

ஒரு ஒலிம்பிக் வீராங்கனை உட்பட பல பிரபலபங்களின் படங்கள் இத்தளத்தில் பயன்படுத்தப்பட்டு, அவர்கள் ஆடைகளை நீக்கப்பட்டதாக பயனர்கள் கூறுகின்றனர்.

பட மூலாதாரம், DEEPSUKEBE

படக்குறிப்பு,

நிர்வாணமாக்கும் தொழில்நுட்பம் கொண்ட வலைதளம்

DeepSukebe தான் அந்த சர்ச்சைக்குரிய வலைதளம். ஒருவரின் ஆடைக்குப் பின் இருக்கும் உண்மை என்ன என்பதை வெளிக்காட்டும் என உறுதியளிக்கிறது இந்த வலைதளம்.

இந்த வலைதளம் 2020ஆம் ஆண்டு தொடங்கப்பட்டது. இதற்குப் பின்னால் யார் இருக்கிறார்கள் என்பதை இதுவரை தெளிவாக கண்டுபிடிக்க முடியவில்லை. பிபிசி அந்த நிறுவனத்திடம் தொடர்பு கொண்ட போதும் எந்தவித பதிலும் கிடைக்கவில்லை.

"இது ஒரு செயற்கை நுண்ணறிவு மூலம் இயங்கும் நியூடிஃபையர்", அனைத்து ஆண்களின் கனவை நனவாக்குவது தான் இதன் இலக்கு" என அந்த நிறுவனத்தின் ட்விட்டர் பக்கத்தில் குறிப்பிடப்பட்டு இருக்கிறது.

இந்த தொழில்நுட்பத்தின் மேம்பட்ட சக்தி வாய்ந்த பதிவில் பணியாற்றிக் கொண்டு இருப்பதாக ஒரு வலைபக்கத்தில் சில தொழில்நுட்ப மேம்பாட்டாளர்கள் கூறியுள்ளனர்.

மோசமான குற்றம்

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

பெண்களை குறி வைத்திருக்கும் நிர்வாணமாக்கும் தொழில்நுட்பங்கள்

இது போன்ற தொழில்நுட்பத்தை தடை செய்யலாமா என ஆலோசிக்கும் நேரம் இது என பிபிசியிடம் தெரிவித்தார் பிரிட்டன் எம்.பி மரியா மில்லர்.

"ஒருவரின் அனுமதியின்றி டிஜிட்டலில் நிர்வாண மற்றும் பாலியல் ரீதியிலான படங்களை உருவாக்குவது சட்டத்துக்கு புறம்பானது என விவாதிக்க நாடாளுமன்றத்தில் வாய்ப்பு வேண்டும். அப்படி நடந்தால் சட்ட நடைமுறை மாற்றப்படும்" என்கிறார் மரியா.

ஒருவரின் சம்மதமின்றி உருவாக்கப்படும் பாலியல் படங்கள் இணையத்தில் பகிரப்படுவது அல்லது விநியோகிக்கப்படுவது, மக்கள் வாழ்கையில் ஏற்படுத்தும் தாக்கத்தை கவனத்தில் எடுத்துக் கொண்டு, அது குற்றமாகக் கருதப்பட வேண்டும். என்று வலியுறுத்துகிறார் மரியா.

"மென்பொருள் தயாரிப்பாளர்கள் இப்படிப்பட்ட தொழில்நுட்பத்தை மேம்படுத்தியுள்ளனர் என்றால், அவர்கள் சட்டத்துக்குப் புறம்பான தீவிரமான காரியங்களில் ஈடுபட்டிருப்பதாகப் பொருள் கொள்ளலாம். மேலும் இப்படி ஒருவரின் புகைப்படத்தில் இருக்கும் ஆடைகளை நீக்கும் தொழில்நுட்பத்தை நிறுத்தும் வகையில் அதை மாற்றி வடிவமைக்க வேண்டும்" எனவும் கூறியுள்ளார்.

மரியா மில்லர், 'ரிவென்ஜ் போர்ன்' என்கிற ஆபாச படங்களை பகிரும் வலைதளத்தை எதிர்த்து கடந்த ஆறு ஆண்டுகளாக பிரசாரம் மேற்கொண்டு வருகிறார்.

ஒருவரின் அந்தரங்க காணொளி மற்றும் படங்களை அவர்களது அனுமதியின்றி படம்பிடிப்பது, அவர்களை மிரட்டும் விதத்திலோ, பழிவாங்கும் விதத்திலோ இணையத்தில் பகிர்வது எல்லாமே ரிவென்ஜ் போர்ன் தான்.

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

அந்தரங்க படங்கள்

"தற்போது, ஒருவரின் அனுமதியில்லாமல் அந்தரங்க படங்கள் அல்லது காணொளிகளை உருவாக்குவது, எடுப்பது, பகிர்வது பெரும்பாலும் சட்டத்துக்கு வெளியே தான் இருக்கின்றன"

"ஒருவரின் அனுமதியின்றி அவரது அந்தரங்க படங்களை வெளியே கசியவிடுவது, அவரது வாழ்வில் அது ஏற்படுத்தும் தாக்கத்தை கணக்கில் கொண்டு, அதை ஒரு பாலியல் குற்றமாக கருத வேண்டும்" என்கிறார்.

இணைய பாதுகாப்புச் சட்டத்தில், இந்த பிரச்சனையும் சேர்க்கப்பட வேண்டும் என விரும்புகிறார் மரியா மில்லர்.

அனைத்து வித பாலியல் சுரண்டல்களை முடிவுக்குக் கொண்டு வரும் 'CEASE' என்கிற அமைப்பும், இணையத்தில் ஒருவரின் படத்தில் இருக்கும் ஆடைகளை நீக்கும் சாதனங்களை சமாளிப்பது குறித்தும், இணைய பாதுகாப்புச் சட்டத்தில் குறிப்பிடப்பட வேண்டும் என எதிர்பார்ப்பதாகக் கூறியுள்ளது.

"இப்பகுதியில் இணைய பாதுகாப்புச் சட்டம் போதிய அளவுக்கு இல்லை: என்கிறார் முதன்மைச் செயல் அதிகாரியான வனிசா மோர்ஸ்.

"பெண்களை ஒரு பொருளாக பாவிக்கும், பெண்களை கொச்சைப்படுத்தும் வகையில் வடிவமைக்கப்பட்டு இருக்கும் தொழில்நுட்பம் நிறுத்தப்பட வேண்டும். மேலும், இப்படிப்பட்ட புகைப்படங்களை விநியோகிப்பதன் மூலம் லாபம் பார்க்கும் ஆபாச பட வலைதளங்கள், இது போன்ற புகைப்படங்களை பதிவேற்றும் கணக்குகளை நீக்க கட்டாயப்படுத்தப்பட வேண்டும்" என கூறியுள்ளார் அவர்.

இது போல புகைப்படங்களில் உள்ளவரை நிர்வாணமாகக் காட்டும் தொழில்நுட்பம் உலகுக்கு ஒன்றும் புதிதல்ல.

2019ஆம் ஆண்டு 'DeepNude' என்கிற தொழில்நுட்பம் வெளியானது. அதற்கு எழுந்த எதிர்ப்பு காரணமாக அச்சேவை உடனடியாக பின்வாங்கப்பட்டது.

இத்தொழில்நுட்பத்தை தவறாக பயன்படுத்துவதற்கான வாய்ப்பு அதிகமாக இருப்பதாகவும், உலகம் இது போன்ற ஒரு சர்ச்சையான தொழில்நுட்பத்துக்கு இன்னும் தயாராகவில்லை எனவும் DeepNude தரப்பினர் கூறியது நினைவுகூரத்தக்கது.

இது நெறியல்ல

பட மூலாதாரம், Getty Images

படக்குறிப்பு,

நிர்வாணமாக்கும் தொழில்நுட்பம்

DeepNude பின்வாங்கப்பட்டாலும் பலரும் அதன் 'சோர்ஸ் கோட்' என்றழைக்கப்படும், அச்சேவையை கட்டமைக்க பயன்படுத்தப்படும் கோட்கள் பொது வெளியில் கிடைத்தன. அதைப் பயன்படுத்தி இது போன்ற சேவைகளை இணையத்தில் வழங்கி வருகின்றனர்.

தற்போதைய DeepSukebe தொழில்நுட்பம் பல மடங்கு மேம்பட்டதாக இருப்பதாகக் கூறுகிறார் ஒரு பகுப்பாய்வாளர்.

"இப்படி ஒரு படைப்பு உண்மையிலேயே நெறியானது அல்ல. குறிப்பாக அதைப் பயன்படுத்தும் விதத்திலும், 'உங்கள் நண்பர்களை நிர்வாணமாக்குங்கள்' என டெவலப்பர்கள் விளம்பரப்படுத்திய விதத்திலும் இது நெறிமுறையற்ற செயல்" என கூறியுள்ளார் இது போன்ற நிர்வாணமாக்கும் தொழில்நுட்ப சாதனங்களில் பணியாற்றும் டெவலப்பர் இவான் ப்ராவோ.

மேலும், பெண்களை மட்டும் நிர்வாணமாக்கும் விதத்தில் சாதனத்தை வடிவமைத்திருப்பதும் பாலியல் ரீதியில் தவறானது என்கின்றனர் பகுப்பாய்வாளர்கள்.

பிற செய்திகள்:

சமூக ஊடகங்களில் பிபிசி தமிழ் :