கனடாவின் டம்ப்ளர் ரிட்ஜ் (Tumbler Ridge) நகரில் கடந்த பெப்ரவரி மாதம் 8 பேர் உயிரிழக்கக் காரணமான துப்பாக்கிச் சூடு சம்பவம் தொடர்பாக, OpenAI நிறுவனத்தின் தலைமை நிர்வாக அதிகாரி (CEO) சாம் ஆல்ட்மேன் மன்னிப்பு கோரியுள்ளார்.
தாக்குதல் நடத்தியவரின் சர்ச்சைக்குரிய ‘ChatGPT’ கணக்குகள் குறித்து காவல்துறையினருக்கு முன்கூட்டியே எச்சரிக்கை செய்யாததற்காக தாம் “ஆழ்ந்த வருத்தத்தைத்” தெரிவித்துக் கொள்வதாக ஆல்ட்மேன் கூறினார். பிரிட்டிஷ் கொலம்பியா மாகாண முதல்வர் டேவிட் ஈபி, இந்த மன்னிப்பு “அவசியமானது, ஆனால் மிகவும் போதுமற்றது” என்று விமர்சித்துள்ளார்.
OpenAI எங்கே தவறியது?
சம்பவம்: பிப்ரவரி 10 அன்று, 18 வயதுடைய திருநங்கை ஒருவர் தனது தாய் மற்றும் சகோதரரைக் கொன்றுவிட்டு, உள்ளூர் மேல்நிலைப் பள்ளிக்குச் சென்று துப்பாக்கிச் சூடு நடத்தினார். இதில் ஐந்து குழந்தைகள் மற்றும் ஒரு ஆசிரியர் கொல்லப்பட்டனர். இறுதியில் அவர் தற்கொலை செய்து கொண்டார்.
OpenAI-இன் விளக்கம்: தாக்குதலுக்கு எட்டு மாதங்களுக்கு முன்பே (ஜூன் மாதம்), சந்தேக நபரின் கணக்கைத் தங்களது துஷ்பிரயோகக் கண்டறிதல் அமைப்பு மூலம் அடையாளம் கண்டு முடக்கியதாக OpenAI தெரிவித்தது.
காரணம்: அந்த நேரத்தில் கணக்கு முடக்கப்பட்ட போதிலும், அதிலிருந்த தகவல்கள் சட்ட அமலாக்கத் துறையிடம் ஒப்படைப்பதற்கான ‘தீவிரத்தன்மை வரம்பை’ (Threshold) எட்டவில்லை என்பதால் அவர்கள் காவல்துறையிடம் தெரிவிக்கவில்லை.
ChatGPT வன்முறையை எவ்வாறு கையாள்கிறது?
OpenAI தனது தளத்தில் உள்ள உள்ளடக்கங்களை உடனுக்குடன் ஸ்கேன் செய்யத் தானியங்கி முறைகளைப் பயன்படுத்துகிறது. பாலியல் சுரண்டல், தற்கொலை முயற்சிகளைத் தூண்டுதல் மற்றும் வன்முறையை ஊக்குவித்தல் போன்ற விதிகளுக்குப் புறம்பான கணக்குகள் முடக்கப்படும். தீவிரமான சந்தர்ப்பங்களில், மனித ஆய்வுக்குப் பின் அந்தத் தரவுகள் காவல்துறையுடன் பகிரப்படும்.
எடுக்கப்பட்டுள்ள நடவடிக்கைகள்:
புதிய கட்டுப்பாடுகள்: இந்தத் தாக்குதலுக்குப் பிறகு, கனடிய அதிகாரிகள் OpenAI-க்கு எச்சரிக்கை விடுத்துள்ளனர். இதனால் பாதுகாப்பு நடவடிக்கைகளைத் தீவிரப்படுத்தவும், காவல்துறையுடன் நேரடித் தொடர்பைச் ஏற்படுத்தவும் நிறுவனம் ஒப்புக்கொண்டுள்ளது.
வழக்கு: துப்பாக்கிச் சூட்டில் பலத்த காயமடைந்த ஒரு சிறுமியின் குடும்பத்தினர், இந்த அமெரிக்கத் தொழில்நுட்ப நிறுவனத்தின் மீது அலட்சியக் குற்றச்சாட்டைச் சுமத்தி வழக்குத் தொடர்ந்துள்ளனர்.
இந்தச் சம்பவம், செயற்கை நுண்ணறிவு நிறுவனங்கள் தங்கள் பயனர்களின் ஆபத்தான நடவடிக்கைகளை எந்த அளவுக்குக் கண்காணிக்க வேண்டும் மற்றும் எப்போது அதிகாரிகளுக்குத் தெரிவிக்க வேண்டும் என்பது குறித்த பெரிய விவாதத்தை உருவாக்கியுள்ளது.