ಮಕ್ಕಳನ್ನು ಚಿತ್ರಿಸುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ರಚಿಸಿದ ಲೈಂಗಿಕ ಚಿತ್ರಗಳು ಮಕ್ಕಳ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯವನ್ನು ಒಳಗೊಂಡಿವೆ ಮತ್ತು ಅದನ್ನು ಅಪರಾಧವೆಂದು ಪರಿಗಣಿಸಬೇಕು ಎಂದು ಯುನಿಸೆಫ್ ಹೇಳಿದೆ, ನಿಂದನೀಯ ವಿಷಯವನ್ನು ರಚಿಸಲು ಎಐ ಸಾಧನಗಳ ದುರುಪಯೋಗದಲ್ಲಿ ತ್ವರಿತ ಮತ್ತು ಆತಂಕಕಾರಿ ಏರಿಕೆಯ ಬಗ್ಗೆ ಎಚ್ಚರಿಕೆ ನೀಡಿದೆ.
ವಿಶ್ವಾದ್ಯಂತ ಮಕ್ಕಳಿಗೆ ಮಾನವೀಯ ಮತ್ತು ಅಭಿವೃದ್ಧಿ ನೆರವು ನೀಡುವ ಜವಾಬ್ದಾರಿಯನ್ನು ಹೊಂದಿರುವ ಯುಎನ್ ಏಜೆನ್ಸಿ ಹೇಳಿಕೆಯಲ್ಲಿ, ಡೀಪ್ ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ಮಕ್ಕಳ ನೈಜ ಛಾಯಾಚಿತ್ರಗಳನ್ನು ಕುಶಲತೆಯಿಂದ ನಿರ್ವಹಿಸುವ ಮತ್ತು ಲೈಂಗೀಕರಿಸುವ ಪ್ರಕರಣಗಳು ಸೇರಿದಂತೆ ಎಐ-ಉತ್ಪತ್ತಿಯಾಗುವ ಲೈಂಗಿಕ ಚಿತ್ರಗಳ ಹೆಚ್ಚಳವನ್ನು ತೋರಿಸುವ ವರದಿಗಳ ಬಗ್ಗೆ ಹೆಚ್ಚು ಕಳವಳ ವ್ಯಕ್ತಪಡಿಸಿದೆ ಎಂದು ಹೇಳಿದೆ.
“ಎಐ ಸಾಧನಗಳನ್ನು ಬಳಸಿಕೊಂಡು ರಚಿಸಲಾದ ಅಥವಾ ಕುಶಲತೆಯಿಂದ ನಿರ್ವಹಿಸಲಾದ ಮಕ್ಕಳ ಲೈಂಗಿಕ ಚಿತ್ರಗಳು ಮಕ್ಕಳ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ವಸ್ತುಗಳಾಗಿವೆ. ಡೀಪ್ ಫೇಕ್ ದುರುಪಯೋಗವು ದುರುಪಯೋಗವಾಗಿದೆ, ಮತ್ತು ಅದು ಉಂಟುಮಾಡುವ ಹಾನಿಯ ಬಗ್ಗೆ ನಕಲಿ ಏನೂ ಇಲ್ಲ” ಎಂದು ಯುನಿಸೆಫ್ ಹೇಳಿದೆ.
ಮಕ್ಕಳನ್ನು ಒಳಗೊಂಡ ಲೈಂಗಿಕ ವಿಷಯವನ್ನು ಉತ್ಪಾದಿಸಲು ಡೀಪ್ ಫೇಕ್ ಗಳನ್ನು (ಚಿತ್ರಗಳು, ವೀಡಿಯೊಗಳು ಅಥವಾ ಆಡಿಯೊಗಳನ್ನು ರಚಿಸಲಾಗಿದೆ ಅಥವಾ ನೈಜವಾಗಿ ಕಾಣಲು ಎಐ ಬಳಸಿ ಮಾರ್ಪಡಿಸಲಾಗಿದೆ) ಬಳಸಲಾಗುತ್ತಿದೆ ಎಂದು ಯುನಿಸೆಫ್ ಹೇಳಿದೆ, ಅಲ್ಲಿ ಎಐ ಸಾಧನಗಳು ನಗ್ನ ಅಥವಾ ಲೈಂಗಿಕ ಚಿತ್ರಗಳನ್ನು ತಯಾರಿಸಲು ಬಟ್ಟೆಗಳನ್ನು ಡಿಜಿಟಲ್ ಆಗಿ ತೆಗೆದುಹಾಕುತ್ತವೆ ಅಥವಾ ಬದಲಾಯಿಸುತ್ತವೆ.
ಹೊಸ ಪುರಾವೆಗಳನ್ನು ಉಲ್ಲೇಖಿಸಿ, ಯುನಿಸೆಫ್ 11 ದೇಶಗಳಲ್ಲಿ ಇಸಿಪಿಎಟಿ ಮತ್ತು ಇಂಟರ್ಪೋಲ್ ನೊಂದಿಗೆ ನಡೆಸಿದ ಜಂಟಿ ಅಧ್ಯಯನವು ಕನಿಷ್ಠ 1.2 ಮಿಲಿಯನ್ ಮಕ್ಕಳು ತಮ್ಮ ಚಿತ್ರಗಳನ್ನು ತಿರುಚಲಾಗಿದೆ ಎಂದು ಬಹಿರಂಗಪಡಿಸಿದ್ದಾರೆ ಎಂದು ಹೇಳಿದೆ.








