ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ಮಾದರಿಗಳು ಹ್ಯಾಕಿಂಗ್ ಗೆ ಗುರಿಯಾಗುತ್ತವೆ ಎಂದು ಗೂಗಲ್ ಸಿಇಒ ಎರಿಕ್ ಸ್ಮಿತ್ ಎಚ್ಚರಿಸಿದ್ದಾರೆ. ಕಳೆದ ವಾರ ಸಿಫ್ಟೆಡ್ ಶೃಂಗಸಭೆಯಲ್ಲಿ ಮಾತನಾಡಿದ ಸ್ಮಿತ್, 2001 ರಿಂದ 2011 ರವರೆಗೆ ಗೂಗಲ್ ನ ಮುಖ್ಯ ಕಾರ್ಯನಿರ್ವಾಹಕರಾಗಿ ಸೇವೆ ಸಲ್ಲಿಸಿದ ಸ್ಮಿತ್, ಪರಮಾಣು ಶಸ್ತ್ರಾಸ್ತ್ರಗಳಿಗಿಂತ ಎಐ ಹೆಚ್ಚು ಅಪಾಯಕಾರಿಯಾಗಬಹುದೇ ಎಂದು ಕೇಳಿದಾಗ “ಎಐ ಮಾಡಬಹುದಾದ ಕೆಟ್ಟ ವಿಷಯ” ಬಗ್ಗೆ ಮಾತನಾಡಿದರು.
ಎಐನಲ್ಲಿ ಪ್ರಸರಣ ಸಮಸ್ಯೆಯ ಸಾಧ್ಯತೆಯಿದೆಯೇ? ಖಂಡಿತವಾಗಿಯೂ,” ಸ್ಮಿತ್ ಹೇಳಿದರು, “ನೀವು ಮಾದರಿಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಬಹುದು, ಮುಚ್ಚಬಹುದು ಅಥವಾ ತೆರೆಯಬಹುದು ಎಂಬುದಕ್ಕೆ ಪುರಾವೆಗಳಿವೆ ಮತ್ತು ಅವುಗಳ ಗಾರ್ಡ್ ರೇಲ್ ಗಳನ್ನು ತೆಗೆದುಹಾಕಲು ನೀವು ಅವುಗಳನ್ನು ಹ್ಯಾಕ್ ಮಾಡಬಹುದು. ಆದ್ದರಿಂದ ಅವರ ತರಬೇತಿಯ ಸಮಯದಲ್ಲಿ, ಅವು ಬಹಳಷ್ಟು ವಿಷಯಗಳನ್ನು ಕಲಿಯುತ್ತವೆ. ಕೆಟ್ಟ ಉದಾಹರಣೆಯೆಂದರೆ ಅವು ಯಾರನ್ನಾದರೂ ಹೇಗೆ ಕೊಲ್ಲಬೇಕೆಂದು ಕಲಿಯುತ್ತವೆ’
ಪ್ರಮುಖ ಕಂಪನಿಗಳು ಈ ಎಐ ಮಾದರಿಗಳಿಗೆ ಆ ಪ್ರಶ್ನೆಗೆ ಉತ್ತರಿಸಲು ಅಸಾಧ್ಯವಾಗಿಸಿವೆ ಎಂದು ಸ್ಮಿತ್ ಹೇಳಿದರು. “ಅವುಗಳನ್ನು ರಿವರ್ಸ್-ಎಂಜಿನಿಯರಿಂಗ್ ಮಾಡಬಹುದು ಎಂಬುದಕ್ಕೆ ಪುರಾವೆಗಳಿವೆ, ಮತ್ತು ಆ ಸ್ವರೂಪದ ಇತರ ಅನೇಕ ಉದಾಹರಣೆಗಳಿವೆ” ಎಂದು ಅವರು ವಿವರಿಸಿದರು.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಭವಿಷ್ಯ
ಎಐ ಡಿಸ್ಟೋಪಿಯಾ ಬಗ್ಗೆ ಚಿಂತಿಸುವ ಏಕೈಕ ಉನ್ನತ ಸಿಲಿಕಾನ್ ವ್ಯಾಲಿ ಕಾರ್ಯನಿರ್ವಾಹಕ ಶ್ಮಿತ್ ಅಲ್ಲ. ಆಗಸ್ಟ್ನಲ್ಲಿ, ಎಐನ ಗಾಡ್ ಫಾದರ್ ಎಂದು ಅನೇಕರಿಂದ ಪರಿಗಣಿಸಲ್ಪಟ್ಟ ಜೆಫ್ರಿ ಹಿಂಟನ್, ಮಾದರಿಗಳು ತಮ್ಮ ಭಾಷೆಯನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುವಲ್ಲಿ ಯಶಸ್ವಿಯಾದರೆ ತಂತ್ರಜ್ಞಾನವು ಕೈಮೀರಬಹುದು ಎಂದು ಎಚ್ಚರಿಸಿದರು.