ವಿಡಿಯೋ ಕಾಲ್ನಲ್ಲಿ ಸ್ನೇಹಿತರಂತೆ ಕಾಣ್ತಾರೆ, ಆದರೆ ಅವರಲ್ಲ!
AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ‘ಮಹಾ’ವಂಚನೆ, ಹುಷಾರ್, ಹುಷಾರ್..!
AI-Deepfake ಅಂದರೆ ಏನು? ಈ ಬಗ್ಗೆ ಕಾನೂನು ಏನ್ ಹೇಳುತ್ತೆ..?
‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ’ (Artificial intelligence) ಇತ್ತೀಚೆಗಿನ ದಿನಗಳಲ್ಲಿ ಭಾರೀ ಸುದ್ದಿಯಾಗುತ್ತಿದೆ. AI ಎಂಬ ‘ಮಾಯೆ’ ಮನುಕುಲಕ್ಕೆ ಬೇಕೋ ಬೇಡವೋ ಅನ್ನೋದ್ರ ಕುರಿತು ಚರ್ಚೆಗಳು ಜೋರಾಗಿ ಶುರುವಾಗಿವೆ. ಹಾಗೆ ನೋಡಿದ್ರೆ ಇಂದಿನ ಮೊಬೈಲ್ ಯುಗದಲ್ಲಿ AI ನಮ್ಮ ಜೀವನದ ಒಂದು ಭಾಗವಾಗಿಬಿಟ್ಟಿದೆ. ತಿಳಿದೋ, ತಿಳಿಯದೆಯೋ ಆ ತಂತ್ರಜ್ಞಾನವನ್ನು ಅಳವಡಿಸಿಕೊಂಡು ಮುಂದೆ ಸಾಗುತ್ತಿದ್ದೇವೆ. ಹೀಗಿರುವಾಗ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅನ್ನೋದು ಎಷ್ಟೋ ಪ್ರಯೋಜನಕಾರಿಯೋ, ಅಷ್ಟೇ ಅಪಾಯಕಾರಿಯೂ ಹೌದು.. ಅಂತೆಯೇ ಕೇರಳದಲ್ಲಿ ವ್ಯಕ್ತಿಯೊಬ್ಬ 40 ಸಾವಿರ ರೂಪಾಯಿ ಕಳೆದುಕೊಂಡು ಸುದ್ದಿಯಾಗಿದ್ದಾರೆ!
ಏನಿದು ಪ್ರಕರಣ..?
ಹೌದು, AI-ಡೀಪ್ಫೇಕ್ (AI-deepfake) ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡು ಕೇರಳದ ವ್ಯಕ್ತಿಗೆ 40,000 ರೂಪಾಯಿ ವಂಚನೆ ಮಾಡಲಾಗಿದೆ. ಕೋಝಿಕ್ಕೋಡ್ ಮೂಲದ ರಾಧಾಕೃಷ್ಣನ್ ಎಂಬ ವ್ಯಕ್ತಿಯ ಮೊಬೈಲ್ಗೆ ವಾಟ್ಸ್ಆ್ಯಪ್ ವಿಡಿಯೋ ಕರೆ ಒಂದು ಬಂದಿತ್ತು. ಕರೆ ಸ್ವೀಕರಿಸಿದ್ದ ರಾಧಾಕೃಷ್ಣಗೆ ಅಚ್ಚರಿ ಕಾದಿತ್ತು. ಕರೆ ಮಾಡಿದ ವ್ಯಕ್ತಿಯು, ಆಂಧ್ರ ಪ್ರದೇಶದ ಮೂಲದ ಮಾಜಿ ಸಹೋದ್ಯೋಗಿಯಂತೆ ಕಾಣುತ್ತಿದ್ದ.
ನಿಜವಾಗಿಯೂ ಆತ ತನ್ನ ಮಾಜಿ ಸಹದ್ಯೋಗಿ ಅಂದ್ಕೊಂಡಿದ್ದ, ರಾಧಾಕೃಷ್ಣ ವಿಡಿಯೋ ಕಾಲ್ನಲ್ಲಿ ಮಾತುಕತೆ ಮುಂದುವರಿಸಿದ್ದ. ವಿಡಿಯೋ ಕಾಲ್ನಲ್ಲಿ ಕಾಣುತ್ತಿದ್ದ ವ್ಯಕ್ತಿ, ತನ್ನ ಸಂಬಂಧಿಕರೊಬ್ಬರು ಆಸ್ಪತ್ರೆಗೆ ದಾಖಲಾಗಿದ್ದಾರೆ. ಅವರಿಗೆ ಶಸ್ತ್ರ ಚಿಕಿತ್ಸೆಯ ಅಗತ್ಯ ಇದ್ದು, ತುರ್ತಾಗಿ ಹಣ ಬೇಕು ಅಂತಾ ಮನವಿ ಮಾಡಿಕೊಂಡಿದ್ದ. ಇದನ್ನು ನಂಬಿದ ರಾಧಾಕೃಷ್ಣ 40,000 ರೂಪಾಯಿ ಹಣವನ್ನು ಆನ್ಲೈನ್ನಲ್ಲಿ ಪೇ ಮಾಡಿದ್ದಾರೆ.
ಅನುಮಾನ ಬಂದಿದ್ದು ಹೇಗೆ..?
ಸ್ವಲ್ಪ ಸಮಯದ ನಂತರ ಅದೇ ವ್ಯಕ್ತಿಯಿಂದ 35 ಸಾವಿರ ರೂಪಾಯಿ ನೀಡುವಂತೆ ಕೋರಿ ಮತ್ತೆ ಕರೆ ಬಂದಿದೆ. ಆಗ ರಾಧಾಕೃಷ್ಣಗೆ ಸಣ್ಣ ಅನುಮಾನ ಶುರುವಾಗಿದೆ. ಕೂಡಲೇ ಆಂಧ್ರದಲ್ಲಿರುವ ಮಾಜಿ ಸಹೊದ್ಯೋಗಿ ಬಗ್ಗೆ ಕ್ರಾಸ್ ಚೆಕ್ ಮಾಡಿದ್ದಾರೆ. ಆಗ, ಕರೆ ಮಾಡಿದ್ದು ನಿಜವಾದ ಸ್ನೇಹಿತನಲ್ಲ, ಸ್ನೇಹಿತನ ರೂಪದಲ್ಲಿ ಕಾಣಿಸಿಕೊಂಡ AI ಎಂದು ಗೊತ್ತಾಗಿದೆ.
ಮೋಸ ಹೋಗಿರುವ ಬಗ್ಗೆ ಕೂಡಲೇ ಕೇರಳ ಪೊಲೀಸರಿಗೆ ರಾಧಾಕೃಷ್ಣ ದೂರು ನೀಡಿದ್ದಾರೆ. ಪೊಲೀಸರು ತನಿಖೆ ಆರಂಭಿಸಿದ್ದಾರೆ. ಕೇರಳ ಸೈಬರ್ ಪೊಲೀಸರು ನೀಡಿರುವ ಮಾಹಿತಿ ಪ್ರಕಾರ, ವಂಚಕರು AI ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ನಕಲಿ ವೀಡಿಯೋ ಕಾಲ್ ಮಾಡಿದ್ದಾರೆ. ಇದು ಕೇರಳದಲ್ಲಿ ನಡೆದ ಮೊದಲ AI ವಂಚನೆ ಪ್ರಕರಣವಾಗಿದೆ. ವಂಚಕರು ಸೋಶಿಯಲ್ ಮೀಡಿಯಾವನ್ನು ಬಳಸಿಕೊಂಡು AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಿಮ್ಮನ್ನು ಇದೇ ರೀತಿ ಯಾಮಾರಿಸಬಹುದು. ಯಾವುದಕ್ಕೂ ಹುಷಾರಾಗಿರಿ ಎಂದು ಎಚ್ಚರಿಸಿದ್ದಾರೆ.
ಈ ರೀತಿಯ ಅನುಮಾನಗಳು ನಿಮ್ಮನ್ನು ಕಾಡಿದಾಗ ಸತ್ಯಾಸತ್ಯಗೆಗಳನ್ನು ಮೊದಲು ತಿಳಿದುಕೊಳ್ಳಿ. ಮತ್ತೆ ಮತ್ತೆ ಪರಿಶೀಲನೆ ಮಾಡಿ, ಸತ್ಯ ಏನು ಅನ್ನೋದನ್ನು ಅರಿತುಕೊಳ್ಳಿ. ಅನುಮಾನಗಳು ಹೆಚ್ಚಾದರೆ, ಸಹಾಯವಾಣಿ 1930ಕ್ಕೆ ಕರೆ ಮಾಡಿ ಮಾಹಿತಿ ನೀಡಿ ಎಂದು ಕೇರಳ ಪೊಲೀಸರು ಜಾಗೃತಿ ಮೂಡಿಸುತ್ತಿದ್ದಾರೆ.
ಏನಿದು AI ಆಧಾರಿತ Deepfake..?
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ Deepfake ಮಾಡುವುದಾಗಿದೆ. ಅಂದರೆ Facial reenactment ಎಂಬ ಟೆಕ್ನಿಕ್ ಬಳಸಿಕೊಂಡು, ಓರ್ವ ವ್ಯಕ್ತಿಯ ಮುಖದ ಚಹರೆ, ಹಾವ-ಭಾವ ರೀತಿಯಲ್ಲೇ ನಕಲಿ ಮಾಡುವುದಾಗಿದೆ. ನಕಲಿ ವ್ಯಕ್ತಿತ್ವನ್ನು ಸೃಷ್ಟಿಸಿ ವಿಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೂಲಕ ಮೋಸಗೊಳಿಸುವುದೇ AI-Deepfake ಆಗಿದೆ. ವಂಚಕರ ಉದ್ದೇಶವು ವೈಯಕ್ತಿಕ ಮಾಹಿತಿ, ಹಣವನ್ನು ಪಡೆಯಲು ವಿಶ್ವಾಸಾರ್ಹ ಸ್ನೇಹಿತ ಅಥವಾ ಕುಟುಂಬದ ಸದಸ್ಯರಂತೆ ನಟಿಸಲು ಈ ತಂತ್ರದ ಮೊರೆ ಹೋಗ್ತಿದ್ದಾರೆ.
ಕಾನೂನು ಏನು ಹೇಳುತ್ತೆ..?
ಯಾವುದೇ ವ್ಯಕ್ತಿಯ ಅನುಮತಿ ಇಲ್ಲದೇ ಯಾವುದೇ ವ್ಯಕ್ತಿಯ AI-Deepfake ಮಾಡುವಂತಿಲ್ಲ. ಒಂದು ವೇಳೆ ಹಾಗೆ ಮಾಡಿದರೆ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ. ಯೂರೋಪಿಯನ್ ದೇಶಗಳಲ್ಲಿ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಹೆಚ್ಚಾಗಿ ನಡೆಯುತ್ತಿದ್ದವು. ಅಶ್ಲೀಲ ಚಿತ್ರಗಳನ್ನು ತಯಾರಿಸುವಾಗ ಈ ರೀತಿಯ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ವಿಡಿಯೋ ಮಾಡಿದ್ದ ಪ್ರಸಂಗಗಳು ಕೇಳಿಬಂದಿದ್ದವು. ಇದೀಗ ಭಾರತದಲ್ಲಿ ಹಣಕ್ಕಾಗಿ AI-Deepfake ಮಾಡಿದ ಮೊದಲ ಪ್ರಕರಣ ಸದ್ದು ಮಾಡಿದೆ. ಇದು ಸೈಬರ್ ಆ್ಯಕ್ಟ್ ಅಡಿ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ.
ಇಂಥ ವಂಚನೆಯಿಂದ ನೀವು ಪಾರಾಗಲು ಏನ್ಮಾಡಬೇಕು..?
ಒಟ್ಟಾರೆ, ಜನರನ್ನು ಮೋಸಗೊಳಿಸಲು ವಂಚಕರು ಹುಡುಕುತ್ತಿರುವ ಹೊಸ ವಿಧಾನ ಇದಾಗಿದೆ. ಇಂದು ಕೇರಳಕ್ಕೆ ಹೊಸ ಹಗರಣ ಇದಾಗಿದ್ದರೂ, ಪ್ರಪಂಚದಾದ್ಯಂತ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಸಾಮಾನ್ಯವಾಗಿಬಿಟ್ಟಿವೆ. ಯಾಕಂದರೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಕಲಿ ಮಾಡುವ ಪ್ರಕ್ರಿಯೆಗಳು ಇಂದು ಅಂಗೈಯಲ್ಲೇ ಸುಲಭವಾಗಿ ಸಿಗುತ್ತಿದೆ. ವಿಷಯ ಹೆಚ್ಚು ಗಂಭೀರವಾಗಿರೋದ್ರಿಂದ ನಕಲಿ ವೀಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೇಲೆ ಎಚ್ಚರ ಇರಲಿ. ಮುಗ್ಧರ ಮುಗ್ಧತೆಯ ಲಾಭ ಪಡೆಯಲು ಬಕಪಕ್ಷಿಗಳ ದಂಡೇ ಈ ಪ್ರಪಂಚದಲ್ಲಿದೆ. ಅದಕ್ಕೆ ಇಂದಿನ ನಮ್ಮ ತಂತ್ರಜ್ಞಾನಗಳು ಅವರನ್ನು ಮತ್ತಷ್ಟು ಸುಲಭವಾಗಿಸಿವೆ. ಯಾವುದಕ್ಕೂ ಹುಷಾರ್..!
ವಿಶೇಷ ವರದಿ: ಗಣೇಶ್ ಕೆರೆಕುಳಿ
ವಿಶೇಷ ಸೂಚನೆ: ಎಲ್ಲಾ DTH & Cableನಲ್ಲಿ ನ್ಯೂಸ್ಫಸ್ಟ್ ಚಾನೆಲ್ ಲಭ್ಯ
ವಿಡಿಯೋ ಕಾಲ್ನಲ್ಲಿ ಸ್ನೇಹಿತರಂತೆ ಕಾಣ್ತಾರೆ, ಆದರೆ ಅವರಲ್ಲ!
AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ‘ಮಹಾ’ವಂಚನೆ, ಹುಷಾರ್, ಹುಷಾರ್..!
AI-Deepfake ಅಂದರೆ ಏನು? ಈ ಬಗ್ಗೆ ಕಾನೂನು ಏನ್ ಹೇಳುತ್ತೆ..?
‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ’ (Artificial intelligence) ಇತ್ತೀಚೆಗಿನ ದಿನಗಳಲ್ಲಿ ಭಾರೀ ಸುದ್ದಿಯಾಗುತ್ತಿದೆ. AI ಎಂಬ ‘ಮಾಯೆ’ ಮನುಕುಲಕ್ಕೆ ಬೇಕೋ ಬೇಡವೋ ಅನ್ನೋದ್ರ ಕುರಿತು ಚರ್ಚೆಗಳು ಜೋರಾಗಿ ಶುರುವಾಗಿವೆ. ಹಾಗೆ ನೋಡಿದ್ರೆ ಇಂದಿನ ಮೊಬೈಲ್ ಯುಗದಲ್ಲಿ AI ನಮ್ಮ ಜೀವನದ ಒಂದು ಭಾಗವಾಗಿಬಿಟ್ಟಿದೆ. ತಿಳಿದೋ, ತಿಳಿಯದೆಯೋ ಆ ತಂತ್ರಜ್ಞಾನವನ್ನು ಅಳವಡಿಸಿಕೊಂಡು ಮುಂದೆ ಸಾಗುತ್ತಿದ್ದೇವೆ. ಹೀಗಿರುವಾಗ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅನ್ನೋದು ಎಷ್ಟೋ ಪ್ರಯೋಜನಕಾರಿಯೋ, ಅಷ್ಟೇ ಅಪಾಯಕಾರಿಯೂ ಹೌದು.. ಅಂತೆಯೇ ಕೇರಳದಲ್ಲಿ ವ್ಯಕ್ತಿಯೊಬ್ಬ 40 ಸಾವಿರ ರೂಪಾಯಿ ಕಳೆದುಕೊಂಡು ಸುದ್ದಿಯಾಗಿದ್ದಾರೆ!
ಏನಿದು ಪ್ರಕರಣ..?
ಹೌದು, AI-ಡೀಪ್ಫೇಕ್ (AI-deepfake) ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡು ಕೇರಳದ ವ್ಯಕ್ತಿಗೆ 40,000 ರೂಪಾಯಿ ವಂಚನೆ ಮಾಡಲಾಗಿದೆ. ಕೋಝಿಕ್ಕೋಡ್ ಮೂಲದ ರಾಧಾಕೃಷ್ಣನ್ ಎಂಬ ವ್ಯಕ್ತಿಯ ಮೊಬೈಲ್ಗೆ ವಾಟ್ಸ್ಆ್ಯಪ್ ವಿಡಿಯೋ ಕರೆ ಒಂದು ಬಂದಿತ್ತು. ಕರೆ ಸ್ವೀಕರಿಸಿದ್ದ ರಾಧಾಕೃಷ್ಣಗೆ ಅಚ್ಚರಿ ಕಾದಿತ್ತು. ಕರೆ ಮಾಡಿದ ವ್ಯಕ್ತಿಯು, ಆಂಧ್ರ ಪ್ರದೇಶದ ಮೂಲದ ಮಾಜಿ ಸಹೋದ್ಯೋಗಿಯಂತೆ ಕಾಣುತ್ತಿದ್ದ.
ನಿಜವಾಗಿಯೂ ಆತ ತನ್ನ ಮಾಜಿ ಸಹದ್ಯೋಗಿ ಅಂದ್ಕೊಂಡಿದ್ದ, ರಾಧಾಕೃಷ್ಣ ವಿಡಿಯೋ ಕಾಲ್ನಲ್ಲಿ ಮಾತುಕತೆ ಮುಂದುವರಿಸಿದ್ದ. ವಿಡಿಯೋ ಕಾಲ್ನಲ್ಲಿ ಕಾಣುತ್ತಿದ್ದ ವ್ಯಕ್ತಿ, ತನ್ನ ಸಂಬಂಧಿಕರೊಬ್ಬರು ಆಸ್ಪತ್ರೆಗೆ ದಾಖಲಾಗಿದ್ದಾರೆ. ಅವರಿಗೆ ಶಸ್ತ್ರ ಚಿಕಿತ್ಸೆಯ ಅಗತ್ಯ ಇದ್ದು, ತುರ್ತಾಗಿ ಹಣ ಬೇಕು ಅಂತಾ ಮನವಿ ಮಾಡಿಕೊಂಡಿದ್ದ. ಇದನ್ನು ನಂಬಿದ ರಾಧಾಕೃಷ್ಣ 40,000 ರೂಪಾಯಿ ಹಣವನ್ನು ಆನ್ಲೈನ್ನಲ್ಲಿ ಪೇ ಮಾಡಿದ್ದಾರೆ.
ಅನುಮಾನ ಬಂದಿದ್ದು ಹೇಗೆ..?
ಸ್ವಲ್ಪ ಸಮಯದ ನಂತರ ಅದೇ ವ್ಯಕ್ತಿಯಿಂದ 35 ಸಾವಿರ ರೂಪಾಯಿ ನೀಡುವಂತೆ ಕೋರಿ ಮತ್ತೆ ಕರೆ ಬಂದಿದೆ. ಆಗ ರಾಧಾಕೃಷ್ಣಗೆ ಸಣ್ಣ ಅನುಮಾನ ಶುರುವಾಗಿದೆ. ಕೂಡಲೇ ಆಂಧ್ರದಲ್ಲಿರುವ ಮಾಜಿ ಸಹೊದ್ಯೋಗಿ ಬಗ್ಗೆ ಕ್ರಾಸ್ ಚೆಕ್ ಮಾಡಿದ್ದಾರೆ. ಆಗ, ಕರೆ ಮಾಡಿದ್ದು ನಿಜವಾದ ಸ್ನೇಹಿತನಲ್ಲ, ಸ್ನೇಹಿತನ ರೂಪದಲ್ಲಿ ಕಾಣಿಸಿಕೊಂಡ AI ಎಂದು ಗೊತ್ತಾಗಿದೆ.
ಮೋಸ ಹೋಗಿರುವ ಬಗ್ಗೆ ಕೂಡಲೇ ಕೇರಳ ಪೊಲೀಸರಿಗೆ ರಾಧಾಕೃಷ್ಣ ದೂರು ನೀಡಿದ್ದಾರೆ. ಪೊಲೀಸರು ತನಿಖೆ ಆರಂಭಿಸಿದ್ದಾರೆ. ಕೇರಳ ಸೈಬರ್ ಪೊಲೀಸರು ನೀಡಿರುವ ಮಾಹಿತಿ ಪ್ರಕಾರ, ವಂಚಕರು AI ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ನಕಲಿ ವೀಡಿಯೋ ಕಾಲ್ ಮಾಡಿದ್ದಾರೆ. ಇದು ಕೇರಳದಲ್ಲಿ ನಡೆದ ಮೊದಲ AI ವಂಚನೆ ಪ್ರಕರಣವಾಗಿದೆ. ವಂಚಕರು ಸೋಶಿಯಲ್ ಮೀಡಿಯಾವನ್ನು ಬಳಸಿಕೊಂಡು AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಿಮ್ಮನ್ನು ಇದೇ ರೀತಿ ಯಾಮಾರಿಸಬಹುದು. ಯಾವುದಕ್ಕೂ ಹುಷಾರಾಗಿರಿ ಎಂದು ಎಚ್ಚರಿಸಿದ್ದಾರೆ.
ಈ ರೀತಿಯ ಅನುಮಾನಗಳು ನಿಮ್ಮನ್ನು ಕಾಡಿದಾಗ ಸತ್ಯಾಸತ್ಯಗೆಗಳನ್ನು ಮೊದಲು ತಿಳಿದುಕೊಳ್ಳಿ. ಮತ್ತೆ ಮತ್ತೆ ಪರಿಶೀಲನೆ ಮಾಡಿ, ಸತ್ಯ ಏನು ಅನ್ನೋದನ್ನು ಅರಿತುಕೊಳ್ಳಿ. ಅನುಮಾನಗಳು ಹೆಚ್ಚಾದರೆ, ಸಹಾಯವಾಣಿ 1930ಕ್ಕೆ ಕರೆ ಮಾಡಿ ಮಾಹಿತಿ ನೀಡಿ ಎಂದು ಕೇರಳ ಪೊಲೀಸರು ಜಾಗೃತಿ ಮೂಡಿಸುತ್ತಿದ್ದಾರೆ.
ಏನಿದು AI ಆಧಾರಿತ Deepfake..?
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ Deepfake ಮಾಡುವುದಾಗಿದೆ. ಅಂದರೆ Facial reenactment ಎಂಬ ಟೆಕ್ನಿಕ್ ಬಳಸಿಕೊಂಡು, ಓರ್ವ ವ್ಯಕ್ತಿಯ ಮುಖದ ಚಹರೆ, ಹಾವ-ಭಾವ ರೀತಿಯಲ್ಲೇ ನಕಲಿ ಮಾಡುವುದಾಗಿದೆ. ನಕಲಿ ವ್ಯಕ್ತಿತ್ವನ್ನು ಸೃಷ್ಟಿಸಿ ವಿಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೂಲಕ ಮೋಸಗೊಳಿಸುವುದೇ AI-Deepfake ಆಗಿದೆ. ವಂಚಕರ ಉದ್ದೇಶವು ವೈಯಕ್ತಿಕ ಮಾಹಿತಿ, ಹಣವನ್ನು ಪಡೆಯಲು ವಿಶ್ವಾಸಾರ್ಹ ಸ್ನೇಹಿತ ಅಥವಾ ಕುಟುಂಬದ ಸದಸ್ಯರಂತೆ ನಟಿಸಲು ಈ ತಂತ್ರದ ಮೊರೆ ಹೋಗ್ತಿದ್ದಾರೆ.
ಕಾನೂನು ಏನು ಹೇಳುತ್ತೆ..?
ಯಾವುದೇ ವ್ಯಕ್ತಿಯ ಅನುಮತಿ ಇಲ್ಲದೇ ಯಾವುದೇ ವ್ಯಕ್ತಿಯ AI-Deepfake ಮಾಡುವಂತಿಲ್ಲ. ಒಂದು ವೇಳೆ ಹಾಗೆ ಮಾಡಿದರೆ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ. ಯೂರೋಪಿಯನ್ ದೇಶಗಳಲ್ಲಿ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಹೆಚ್ಚಾಗಿ ನಡೆಯುತ್ತಿದ್ದವು. ಅಶ್ಲೀಲ ಚಿತ್ರಗಳನ್ನು ತಯಾರಿಸುವಾಗ ಈ ರೀತಿಯ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ವಿಡಿಯೋ ಮಾಡಿದ್ದ ಪ್ರಸಂಗಗಳು ಕೇಳಿಬಂದಿದ್ದವು. ಇದೀಗ ಭಾರತದಲ್ಲಿ ಹಣಕ್ಕಾಗಿ AI-Deepfake ಮಾಡಿದ ಮೊದಲ ಪ್ರಕರಣ ಸದ್ದು ಮಾಡಿದೆ. ಇದು ಸೈಬರ್ ಆ್ಯಕ್ಟ್ ಅಡಿ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ.
ಇಂಥ ವಂಚನೆಯಿಂದ ನೀವು ಪಾರಾಗಲು ಏನ್ಮಾಡಬೇಕು..?
ಒಟ್ಟಾರೆ, ಜನರನ್ನು ಮೋಸಗೊಳಿಸಲು ವಂಚಕರು ಹುಡುಕುತ್ತಿರುವ ಹೊಸ ವಿಧಾನ ಇದಾಗಿದೆ. ಇಂದು ಕೇರಳಕ್ಕೆ ಹೊಸ ಹಗರಣ ಇದಾಗಿದ್ದರೂ, ಪ್ರಪಂಚದಾದ್ಯಂತ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಸಾಮಾನ್ಯವಾಗಿಬಿಟ್ಟಿವೆ. ಯಾಕಂದರೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಕಲಿ ಮಾಡುವ ಪ್ರಕ್ರಿಯೆಗಳು ಇಂದು ಅಂಗೈಯಲ್ಲೇ ಸುಲಭವಾಗಿ ಸಿಗುತ್ತಿದೆ. ವಿಷಯ ಹೆಚ್ಚು ಗಂಭೀರವಾಗಿರೋದ್ರಿಂದ ನಕಲಿ ವೀಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೇಲೆ ಎಚ್ಚರ ಇರಲಿ. ಮುಗ್ಧರ ಮುಗ್ಧತೆಯ ಲಾಭ ಪಡೆಯಲು ಬಕಪಕ್ಷಿಗಳ ದಂಡೇ ಈ ಪ್ರಪಂಚದಲ್ಲಿದೆ. ಅದಕ್ಕೆ ಇಂದಿನ ನಮ್ಮ ತಂತ್ರಜ್ಞಾನಗಳು ಅವರನ್ನು ಮತ್ತಷ್ಟು ಸುಲಭವಾಗಿಸಿವೆ. ಯಾವುದಕ್ಕೂ ಹುಷಾರ್..!
ವಿಶೇಷ ವರದಿ: ಗಣೇಶ್ ಕೆರೆಕುಳಿ
ವಿಶೇಷ ಸೂಚನೆ: ಎಲ್ಲಾ DTH & Cableನಲ್ಲಿ ನ್ಯೂಸ್ಫಸ್ಟ್ ಚಾನೆಲ್ ಲಭ್ಯ