ஏ.ஐ.,யில் 'ஜிப்லி' படங்களை உருவாக்குவோருக்கு எச்சரிக்கை
ஏ.ஐ.,யில் 'ஜிப்லி' படங்களை உருவாக்குவோருக்கு எச்சரிக்கை
ADDED : ஏப் 06, 2025 06:12 AM

கோவை,: ஏ.ஐ., எனப்படும் செயற்கை நுண்ணறிவு செயலிகள் மற்றும் இணையதளங்களை பயன்படுத்தி, 'ஜிப்லி' அனிமேஷன் படங்களை உருவாக்குவோரின் தனிப்பட்ட படங்கள் கசிய வாய்ப்பு உள்ளதாக போலீசார் எச்சரிக்கின்றனர்.
ஜப்பானிய கலாசாரத்தை உள்ளடக்கி, கையால் வரையப்படும் அனிமேஷன் படங்கள் தான் ஜிப்லி என அழைக்கப்படுகின்றன. ஜிப்லி அனிமேஷன் படங்கள் நுணுக்கமான வேலைப்பாடுகளை கொண்டு வரையப்படும்.
ஆனால், பட்டனை தட்டிய வேகத்தில் நம் படங்களை ஜிப்லி படங்களாக உருவாக்கி தருகிறது ஏ.ஐ., தொழில்நுட்பம். இந்த ஜிப்லி ஆர்ட் படங்கள் தான் தற்போது இணையத்தில் டிரெண்டாக உள்ளன. சாதாரண இணைய வாசிகள் முதல், இணைய பிரபலங்கள், நடிகர்கள், அரசியல்வாதிகள் வரை பலர், இந்த ஜிப்லி ஆர்ட் பயன்படுத்தி தங்கள் படங்களை அனிமேஷன் படங்களாக உருவாக்கி வருகின்றனர். மேலும், இந்த ஜிப்லி ஆர்ட் இணையத்தில் டிரெண்டாக இருப்பதற்கு முக்கிய காரணம், ஓபன் ஏ.ஐ., நிறுவனத்தின் சாட் ஜி.பி.டி., செயலி வாயிலாக அறிமுகப்படுத்தப்பட்டது தான். மேலும், சாட் ஜி.பி.டி., இந்த ஜிப்லிஆர்ட் உருவாக்குவதை இலவசமாக அளிக்கிறது.
இதனால், இளைஞர்கள் மட்டுமின்றி சிறுவர்கள், பெரியவர்கள் என பல தரப்பு மக்கள் தங்களின் போட்டோக்களை ஏ.ஐ., செயலியில் பதிவேற்றம் செய்து, தங்களின் அனிமேஷன் படத்தை உருவாக்கி ரசிக்கின்றனர். மேலும், அவற்றை இணையதளங்களில் பதிவேற்றம் செய்கின்றனர்.
ஒரு பக்கம் இந்த ஜிப்லி ஆர்ட் படங்கள் இணைய வாசிகள் மத்தியில் வரவேற்பை பெற்றிருந்தாலும், மறுபக்கம் பல்வேறு விமர்சனங்களும் எழுந்துள்ளன. 'அப்லோடு' செய்யப்படும் படங்கள் ஏ.ஐ., தொழில்நுட்பத்தால் தவறுதலாக பயன்படுத்த வாய்ப்பு இருப்பதாகவும், தனிப்பட்ட படங்கள் வெளியில் கசிய வாய்ப்புள்ளதாகவும் சைபர் கிரைம் போலீசார் மற்றும் சைபர் நிபுணர்கள் எச்சரிக்கின்றனர்.
மக்கள் தங்களின் போட்டோக்களை ஜிப்லி ஆர்ட் படங்களாக மாற்றச் சொல்லி, ஏ.ஐ., செயலிகளில் 'அப்லோடு' செய்கின்றனர். இந்த படங்களை, ஏ.ஐ., தன் திறன் மேம்பாட்டுக்காக பயன்படுத்திக்கொள்ள வாய்ப்புள்ளது. மேலும், நம் தோற்றத்தை வேறு இடங்களிலும் பயன்படுத்திக்கொள்ள வாய்ப்புள்ளது என, சைபர் நிபுணர்கள் தெரிவிக்கின்றனர்.