ನಿಮ್ಮ ಜೊತೆ ಬಹಳ ಪ್ರೀತಿಯಿಂದ, ಸಹಾನುಭೂತಿಯಿಂದ ಮತ್ತು ಆತ್ಮೀಯವಾಗಿ ಮಾತನಾಡುವ AI ಚಾಟ್ಬಾಟ್ಗಳು (ಉದಾಹರಣೆಗೆ ChatGPT ಅಥವಾ ಇತರ ಎಐಗಳು) ಸಾಮಾನ್ಯ ಎಐಗಳಿಗಿಂತ ಹೆಚ್ಚು ಸುಳ್ಳು ಹೇಳುವ ಅಥವಾ ತಪ್ಪು ಮಾಹಿತಿ ನೀಡುವ ಸಾಧ್ಯತೆ ಇದೆ ಎಂದು ಆಕ್ಸ್ಫರ್ಡ್ ವಿಶ್ವವಿದ್ಯಾಲಯದ ಹೊಸ ಅಧ್ಯಯನವೊಂದು ಎಚ್ಚರಿಸಿದೆ.
ಬಳಕೆದಾರರ ಮನಸ್ಸನ್ನು ನೋಯಿಸಬಾರದು ಅಥವಾ ಅವರೊಂದಿಗೆ ಉತ್ತಮ ಬಾಂಧವ್ಯ ಹೊಂದಿರಬೇಕು ಎಂದು ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ‘ವಾರ್ಮರ್’ (Warmer) AI ಮಾದರಿಗಳು, ಸತ್ಯಕ್ಕಿಂತ ಹೆಚ್ಚಾಗಿ ಬಳಕೆದಾರರ ತೃಪ್ತಿಗೆ ಆದ್ಯತೆ ನೀಡುತ್ತವೆ. ಇದರಿಂದ ಅವು ಶೇ. 60 ರಷ್ಟು ಹೆಚ್ಚು ತಪ್ಪುಗಳನ್ನು ಮಾಡುತ್ತವೆ ಎಂದು ಸಂಶೋಧನೆ ತಿಳಿಸಿದೆ.
ಬಳಕೆದಾರರು ಯಾವುದಾದರೂ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಅಥವಾ ಸುಳ್ಳು ನಂಬಿಕೆಯನ್ನು ಹಂಚಿಕೊಂಡಾಗ, ಈ ‘ಆತ್ಮೀಯ’ ಎಐಗಳು ಅವುಗಳನ್ನು ತಿದ್ದುವ ಬದಲು, ಬಳಕೆದಾರರ ಮನಸ್ಸಿಗೆ ನೋವಾಗಬಾರದು ಎಂಬ ಕಾರಣಕ್ಕೆ ಆ ಸುಳ್ಳನ್ನೇ ಒಪ್ಪಿಕೊಳ್ಳುತ್ತವೆ (Sycophancy).
ವಿಶೇಷವಾಗಿ ವೈದ್ಯಕೀಯ ಸಲಹೆಗಳು ಅಥವಾ ಸಂಕೀರ್ಣವಾದ ಮಾಹಿತಿಯನ್ನು ಕೇಳಿದಾಗ, ಈ ಎಐಗಳು ಬಳಕೆದಾರರನ್ನು ಓಲೈಸಲು ಹೋಗಿ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ನೀಡಿ ಅನಾಹುತಕ್ಕೆ ದಾರಿ ಮಾಡಿಕೊಡಬಹುದು.
”ಎಐ ಮಾದರಿಗಳನ್ನು ಹೆಚ್ಚು ಮಾನವೀಯವಾಗಿ ಮತ್ತು ಸ್ನೇಹಪರವಾಗಿ ರೂಪಿಸಿದಷ್ಟೂ, ಅವು ಸತ್ಯವನ್ನು ಮರೆಮಾಚಿ ಅಥವಾ ಸಿಹಿ ಮಾತುಗಳನ್ನಾಡಿ ಬಳಕೆದಾರರನ್ನು ದಾರಿ ತಪ್ಪಿಸುವ ಅಪಾಯ ಹೆಚ್ಚಿರುತ್ತದೆ,” ಎಂದು ಆಕ್ಸ್ಫರ್ಡ್ ಸಂಶೋಧಕರು ತಿಳಿಸಿದ್ದಾರೆ. ಬಳಕೆದಾರರು ದುಃಖದಲ್ಲಿದ್ದಾಗ ಅಥವಾ ಭಾವನಾತ್ಮಕವಾಗಿದ್ದಾಗ ಈ ಎಐಗಳು ಇನ್ನಷ್ಟು ಹೆಚ್ಚು ಸುಳ್ಳು ಮಾಹಿತಿಯನ್ನು ನೀಡುತ್ತವೆ ಎಂಬುದು ಸಂಶೋಧನೆಯಲ್ಲಿ ಕಂಡುಬಂದಿದೆ.








