newsfirstkannada.com

ಎಲ್ಲೆಲ್ಲೂ ಸಂಚಲನ ಸೃಷ್ಟಿಸಿದೆ AI-Deepfake ಕೇಸ್​.. ಸ್ನೇಹಿತನ ರೂಪದಲ್ಲಿ ವಿಡಿಯೋ ಕಾಲ್ ಮಾಡಿ ಪೀಕಿದ ಹಣವೆಷ್ಟು ಗೊತ್ತಾ..? ಹುಷಾರಪ್ಪೋ..!

Share :

17-07-2023

    ವಿಡಿಯೋ ಕಾಲ್​ನಲ್ಲಿ ಸ್ನೇಹಿತರಂತೆ ಕಾಣ್ತಾರೆ, ಆದರೆ ಅವರಲ್ಲ!

    AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ‘ಮಹಾ’ವಂಚನೆ, ಹುಷಾರ್, ಹುಷಾರ್..!

    AI-Deepfake ಅಂದರೆ ಏನು? ಈ ಬಗ್ಗೆ ಕಾನೂನು ಏನ್ ಹೇಳುತ್ತೆ..?

‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ’ (Artificial intelligence) ಇತ್ತೀಚೆಗಿನ ದಿನಗಳಲ್ಲಿ ಭಾರೀ ಸುದ್ದಿಯಾಗುತ್ತಿದೆ. AI ಎಂಬ ‘ಮಾಯೆ’ ಮನುಕುಲಕ್ಕೆ ಬೇಕೋ ಬೇಡವೋ ಅನ್ನೋದ್ರ ಕುರಿತು ಚರ್ಚೆಗಳು ಜೋರಾಗಿ ಶುರುವಾಗಿವೆ. ಹಾಗೆ ನೋಡಿದ್ರೆ ಇಂದಿನ ಮೊಬೈಲ್ ಯುಗದಲ್ಲಿ AI ನಮ್ಮ ಜೀವನದ ಒಂದು ಭಾಗವಾಗಿಬಿಟ್ಟಿದೆ. ತಿಳಿದೋ, ತಿಳಿಯದೆಯೋ ಆ ತಂತ್ರಜ್ಞಾನವನ್ನು ಅಳವಡಿಸಿಕೊಂಡು ಮುಂದೆ ಸಾಗುತ್ತಿದ್ದೇವೆ. ಹೀಗಿರುವಾಗ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅನ್ನೋದು ಎಷ್ಟೋ ಪ್ರಯೋಜನಕಾರಿಯೋ, ಅಷ್ಟೇ ಅಪಾಯಕಾರಿಯೂ ಹೌದು.. ಅಂತೆಯೇ ಕೇರಳದಲ್ಲಿ ವ್ಯಕ್ತಿಯೊಬ್ಬ 40 ಸಾವಿರ ರೂಪಾಯಿ ಕಳೆದುಕೊಂಡು ಸುದ್ದಿಯಾಗಿದ್ದಾರೆ!

ಏನಿದು ಪ್ರಕರಣ..?

ಹೌದು, AI-ಡೀಪ್‌ಫೇಕ್ (AI-deepfake) ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡು ಕೇರಳದ ವ್ಯಕ್ತಿಗೆ 40,000 ರೂಪಾಯಿ ವಂಚನೆ ಮಾಡಲಾಗಿದೆ. ಕೋಝಿಕ್ಕೋಡ್ ಮೂಲದ ರಾಧಾಕೃಷ್ಣನ್ ಎಂಬ ವ್ಯಕ್ತಿಯ ಮೊಬೈಲ್​​ಗೆ ವಾಟ್ಸ್​​ಆ್ಯಪ್​ ವಿಡಿಯೋ ಕರೆ ಒಂದು ಬಂದಿತ್ತು. ಕರೆ ಸ್ವೀಕರಿಸಿದ್ದ ರಾಧಾಕೃಷ್ಣಗೆ ಅಚ್ಚರಿ ಕಾದಿತ್ತು. ಕರೆ ಮಾಡಿದ ವ್ಯಕ್ತಿಯು, ಆಂಧ್ರ ಪ್ರದೇಶದ ಮೂಲದ ಮಾಜಿ ಸಹೋದ್ಯೋಗಿಯಂತೆ ಕಾಣುತ್ತಿದ್ದ.

ನಿಜವಾಗಿಯೂ ಆತ ತನ್ನ ಮಾಜಿ ಸಹದ್ಯೋಗಿ ಅಂದ್ಕೊಂಡಿದ್ದ, ರಾಧಾಕೃಷ್ಣ ವಿಡಿಯೋ ಕಾಲ್​ನಲ್ಲಿ ಮಾತುಕತೆ ಮುಂದುವರಿಸಿದ್ದ. ವಿಡಿಯೋ ಕಾಲ್​ನಲ್ಲಿ ಕಾಣುತ್ತಿದ್ದ ವ್ಯಕ್ತಿ, ತನ್ನ ಸಂಬಂಧಿಕರೊಬ್ಬರು ಆಸ್ಪತ್ರೆಗೆ ದಾಖಲಾಗಿದ್ದಾರೆ. ಅವರಿಗೆ ಶಸ್ತ್ರ ಚಿಕಿತ್ಸೆಯ ಅಗತ್ಯ ಇದ್ದು, ತುರ್ತಾಗಿ ಹಣ ಬೇಕು ಅಂತಾ ಮನವಿ ಮಾಡಿಕೊಂಡಿದ್ದ. ಇದನ್ನು ನಂಬಿದ ರಾಧಾಕೃಷ್ಣ 40,000 ರೂಪಾಯಿ ಹಣವನ್ನು ಆನ್​​ಲೈನ್​​ನಲ್ಲಿ ಪೇ ಮಾಡಿದ್ದಾರೆ.

ಅನುಮಾನ ಬಂದಿದ್ದು ಹೇಗೆ..?

ಸ್ವಲ್ಪ ಸಮಯದ ನಂತರ ಅದೇ ವ್ಯಕ್ತಿಯಿಂದ 35 ಸಾವಿರ ರೂಪಾಯಿ ನೀಡುವಂತೆ ಕೋರಿ ಮತ್ತೆ ಕರೆ ಬಂದಿದೆ. ಆಗ ರಾಧಾಕೃಷ್ಣಗೆ ಸಣ್ಣ ಅನುಮಾನ ಶುರುವಾಗಿದೆ. ಕೂಡಲೇ ಆಂಧ್ರದಲ್ಲಿರುವ ಮಾಜಿ ಸಹೊದ್ಯೋಗಿ ಬಗ್ಗೆ ಕ್ರಾಸ್​ ಚೆಕ್ ಮಾಡಿದ್ದಾರೆ. ಆಗ, ಕರೆ ಮಾಡಿದ್ದು ನಿಜವಾದ ಸ್ನೇಹಿತನಲ್ಲ, ಸ್ನೇಹಿತನ ರೂಪದಲ್ಲಿ ಕಾಣಿಸಿಕೊಂಡ AI ಎಂದು ಗೊತ್ತಾಗಿದೆ.

ಮೋಸ ಹೋಗಿರುವ ಬಗ್ಗೆ ಕೂಡಲೇ ಕೇರಳ ಪೊಲೀಸರಿಗೆ ರಾಧಾಕೃಷ್ಣ ದೂರು ನೀಡಿದ್ದಾರೆ. ಪೊಲೀಸರು ತನಿಖೆ ಆರಂಭಿಸಿದ್ದಾರೆ. ಕೇರಳ ಸೈಬರ್ ಪೊಲೀಸರು ನೀಡಿರುವ ಮಾಹಿತಿ ಪ್ರಕಾರ, ವಂಚಕರು AI ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ನಕಲಿ ವೀಡಿಯೋ ಕಾಲ್ ಮಾಡಿದ್ದಾರೆ. ಇದು ಕೇರಳದಲ್ಲಿ ನಡೆದ ಮೊದಲ AI ವಂಚನೆ ಪ್ರಕರಣವಾಗಿದೆ. ವಂಚಕರು ಸೋಶಿಯಲ್ ಮೀಡಿಯಾವನ್ನು ಬಳಸಿಕೊಂಡು AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಿಮ್ಮನ್ನು ಇದೇ ರೀತಿ ಯಾಮಾರಿಸಬಹುದು. ಯಾವುದಕ್ಕೂ ಹುಷಾರಾಗಿರಿ ಎಂದು ಎಚ್ಚರಿಸಿದ್ದಾರೆ.

 

ಈ ರೀತಿಯ ಅನುಮಾನಗಳು ನಿಮ್ಮನ್ನು ಕಾಡಿದಾಗ ಸತ್ಯಾಸತ್ಯಗೆಗಳನ್ನು ಮೊದಲು ತಿಳಿದುಕೊಳ್ಳಿ. ಮತ್ತೆ ಮತ್ತೆ ಪರಿಶೀಲನೆ ಮಾಡಿ, ಸತ್ಯ ಏನು ಅನ್ನೋದನ್ನು ಅರಿತುಕೊಳ್ಳಿ. ಅನುಮಾನಗಳು ಹೆಚ್ಚಾದರೆ, ಸಹಾಯವಾಣಿ 1930ಕ್ಕೆ ಕರೆ ಮಾಡಿ ಮಾಹಿತಿ ನೀಡಿ ಎಂದು ಕೇರಳ ಪೊಲೀಸರು ಜಾಗೃತಿ ಮೂಡಿಸುತ್ತಿದ್ದಾರೆ.

ಏನಿದು AI ಆಧಾರಿತ Deepfake..?

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ Deepfake ಮಾಡುವುದಾಗಿದೆ. ಅಂದರೆ Facial reenactment ಎಂಬ ಟೆಕ್ನಿಕ್ ಬಳಸಿಕೊಂಡು, ಓರ್ವ ವ್ಯಕ್ತಿಯ ಮುಖದ ಚಹರೆ, ಹಾವ-ಭಾವ ರೀತಿಯಲ್ಲೇ ನಕಲಿ ಮಾಡುವುದಾಗಿದೆ. ನಕಲಿ ವ್ಯಕ್ತಿತ್ವನ್ನು ಸೃಷ್ಟಿಸಿ ವಿಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೂಲಕ ಮೋಸಗೊಳಿಸುವುದೇ AI-Deepfake ಆಗಿದೆ. ವಂಚಕರ ಉದ್ದೇಶವು ವೈಯಕ್ತಿಕ ಮಾಹಿತಿ, ಹಣವನ್ನು ಪಡೆಯಲು ವಿಶ್ವಾಸಾರ್ಹ ಸ್ನೇಹಿತ ಅಥವಾ ಕುಟುಂಬದ ಸದಸ್ಯರಂತೆ ನಟಿಸಲು ಈ ತಂತ್ರದ ಮೊರೆ ಹೋಗ್ತಿದ್ದಾರೆ.

ಕಾನೂನು ಏನು ಹೇಳುತ್ತೆ..?

ಯಾವುದೇ ವ್ಯಕ್ತಿಯ ಅನುಮತಿ ಇಲ್ಲದೇ ಯಾವುದೇ ವ್ಯಕ್ತಿಯ AI-Deepfake ಮಾಡುವಂತಿಲ್ಲ. ಒಂದು ವೇಳೆ ಹಾಗೆ ಮಾಡಿದರೆ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ. ಯೂರೋಪಿಯನ್ ದೇಶಗಳಲ್ಲಿ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಹೆಚ್ಚಾಗಿ ನಡೆಯುತ್ತಿದ್ದವು. ಅಶ್ಲೀಲ ಚಿತ್ರಗಳನ್ನು ತಯಾರಿಸುವಾಗ ಈ ರೀತಿಯ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ವಿಡಿಯೋ ಮಾಡಿದ್ದ ಪ್ರಸಂಗಗಳು ಕೇಳಿಬಂದಿದ್ದವು. ಇದೀಗ ಭಾರತದಲ್ಲಿ ಹಣಕ್ಕಾಗಿ AI-Deepfake ಮಾಡಿದ ಮೊದಲ ಪ್ರಕರಣ ಸದ್ದು ಮಾಡಿದೆ. ಇದು ಸೈಬರ್​ ಆ್ಯಕ್ಟ್​ ಅಡಿ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ.

ಇಂಥ ವಂಚನೆಯಿಂದ ನೀವು ಪಾರಾಗಲು ಏನ್ಮಾಡಬೇಕು..?

  • ನಿಮಗೆ ಗೊತ್ತಿರದ ಅಥವಾ ನಿರೀಕ್ಷಿಸದ ಜನರಿಂದ ಬರುವ ಕರೆಗಳ ಬಗ್ಗೆ ಸಂಶಯವಿರಲಿ. ಯಾರಾದರೂ ಸ್ನೇಹಿತ ಅಥವಾ ಕುಟುಂಬದ ಸದಸ್ಯರೆಂದು ಹೇಳಿಕೊಂಡರೆ ಅವರ ಗುರುತು ನಿಮಗೆ ಖಚಿತವಾಗದಿದ್ದರೆ ವೈಯಕ್ತಿಕ ಪ್ರಶ್ನೆಗಳನ್ನು ಕೇಳಿ ತಿಳಿದುಕೊಳ್ಳಿ. ನೀವು ಬಯಸಿದ ಉತ್ತರ ಸಿಗದಿದ್ದರೆ ನಿಮ್ಮನ್ನು ಮೋಸ ಮಾಡಲು ಯತ್ನಿಸುತ್ತಿರೋದು ಖಾತರಿ ಆಗುತ್ತದೆ.
  • ಪರಿಚಯವಿಲ್ಲದ, ನಂಬಿಕೆಯಿಲ್ಲದ ಜನರಿಗೆ ವೈಯಕ್ತಿಕ ಮಾಹಿತಿ, ಹಣ ನೀಡಬೇಡಿ. ಕ್ರೆಡಿಟ್ ಕಾರ್ಡ್​, ಓಟಿಪಿ ಅಂತಹ ವೈಯಕ್ತಿಕ ಮಾಹಿತಿಗಳನ್ನು ಕೇಳಿದರೆ ಎಚ್ಚರದಿಂದ ಇರಬೇಕು.
  • ಇದು ಮೋಸದ ಕರೆ ಎಂದು ಗೊತ್ತಾದ ಕೂಡಲೇ ಕಾಲ್ ಕಟ್ ಮಾಡಿ. ಅನಗತ್ಯ ಮಾತುಗಳಿಂದ ದೂರ ಇರೋದು ಉತ್ತಮ
  • ಅನುಮಾನಾಸ್ಪದ ಕರೆಗಳ ಬಗ್ಗೆ ಪೊಲೀಸರಿಗೆ ಮಾಹಿತಿ ನೀಡಿ. ನಕಲಿ ಕರೆಗಳ ಸ್ವರೂಪಗಳ ಬಗ್ಗೆ ಮಾಹಿತಿ ಪಡೆದುಕೊಂಡಿರಿ
  • ಕೆಲವೊಮ್ಮೆ ಕರೆ ಮಾಡಿದವರ ಧ್ವನಿಯು ನೀವು ನೆನಪಿಟ್ಟುಕೊಳ್ಳುವುದಕ್ಕಿಂತ ಭಿನ್ನವಾಗಿರಬಹುದು
  • ಕರೆ ಮಾಡಿದವರು ತಮಗೆ ಗೊತ್ತಿಲ್ಲದ ವೈಯಕ್ತಿಕ ಮಾಹಿತಿಯನ್ನು ಕೇಳುತ್ತಿರಬಹುದು, ಯಾವುದಕ್ಕೂ ಹುಷಾರ್ ಆಗಿರಿ..

ಒಟ್ಟಾರೆ, ಜನರನ್ನು ಮೋಸಗೊಳಿಸಲು ವಂಚಕರು ಹುಡುಕುತ್ತಿರುವ ಹೊಸ ವಿಧಾನ ಇದಾಗಿದೆ. ಇಂದು ಕೇರಳಕ್ಕೆ ಹೊಸ ಹಗರಣ ಇದಾಗಿದ್ದರೂ, ಪ್ರಪಂಚದಾದ್ಯಂತ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಸಾಮಾನ್ಯವಾಗಿಬಿಟ್ಟಿವೆ. ಯಾಕಂದರೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಕಲಿ ಮಾಡುವ ಪ್ರಕ್ರಿಯೆಗಳು ಇಂದು ಅಂಗೈಯಲ್ಲೇ ಸುಲಭವಾಗಿ ಸಿಗುತ್ತಿದೆ. ವಿಷಯ ಹೆಚ್ಚು ಗಂಭೀರವಾಗಿರೋದ್ರಿಂದ ನಕಲಿ ವೀಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೇಲೆ ಎಚ್ಚರ ಇರಲಿ. ಮುಗ್ಧರ ಮುಗ್ಧತೆಯ ಲಾಭ ಪಡೆಯಲು ಬಕಪಕ್ಷಿಗಳ ದಂಡೇ ಈ ಪ್ರಪಂಚದಲ್ಲಿದೆ. ಅದಕ್ಕೆ ಇಂದಿನ ನಮ್ಮ ತಂತ್ರಜ್ಞಾನಗಳು ಅವರನ್ನು ಮತ್ತಷ್ಟು ಸುಲಭವಾಗಿಸಿವೆ. ಯಾವುದಕ್ಕೂ ಹುಷಾರ್..!

ವಿಶೇಷ ವರದಿ: ಗಣೇಶ್ ಕೆರೆಕುಳಿ

ವಿಶೇಷ ಸೂಚನೆ: ಎಲ್ಲಾ DTH & Cableನಲ್ಲಿ ನ್ಯೂಸ್​ಫಸ್ಟ್​ ಚಾನೆಲ್​​​ ಲಭ್ಯ

ಎಲ್ಲೆಲ್ಲೂ ಸಂಚಲನ ಸೃಷ್ಟಿಸಿದೆ AI-Deepfake ಕೇಸ್​.. ಸ್ನೇಹಿತನ ರೂಪದಲ್ಲಿ ವಿಡಿಯೋ ಕಾಲ್ ಮಾಡಿ ಪೀಕಿದ ಹಣವೆಷ್ಟು ಗೊತ್ತಾ..? ಹುಷಾರಪ್ಪೋ..!

https://newsfirstlive.com/wp-content/uploads/2023/07/AI-Deepfake-1.jpg

    ವಿಡಿಯೋ ಕಾಲ್​ನಲ್ಲಿ ಸ್ನೇಹಿತರಂತೆ ಕಾಣ್ತಾರೆ, ಆದರೆ ಅವರಲ್ಲ!

    AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ‘ಮಹಾ’ವಂಚನೆ, ಹುಷಾರ್, ಹುಷಾರ್..!

    AI-Deepfake ಅಂದರೆ ಏನು? ಈ ಬಗ್ಗೆ ಕಾನೂನು ಏನ್ ಹೇಳುತ್ತೆ..?

‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ’ (Artificial intelligence) ಇತ್ತೀಚೆಗಿನ ದಿನಗಳಲ್ಲಿ ಭಾರೀ ಸುದ್ದಿಯಾಗುತ್ತಿದೆ. AI ಎಂಬ ‘ಮಾಯೆ’ ಮನುಕುಲಕ್ಕೆ ಬೇಕೋ ಬೇಡವೋ ಅನ್ನೋದ್ರ ಕುರಿತು ಚರ್ಚೆಗಳು ಜೋರಾಗಿ ಶುರುವಾಗಿವೆ. ಹಾಗೆ ನೋಡಿದ್ರೆ ಇಂದಿನ ಮೊಬೈಲ್ ಯುಗದಲ್ಲಿ AI ನಮ್ಮ ಜೀವನದ ಒಂದು ಭಾಗವಾಗಿಬಿಟ್ಟಿದೆ. ತಿಳಿದೋ, ತಿಳಿಯದೆಯೋ ಆ ತಂತ್ರಜ್ಞಾನವನ್ನು ಅಳವಡಿಸಿಕೊಂಡು ಮುಂದೆ ಸಾಗುತ್ತಿದ್ದೇವೆ. ಹೀಗಿರುವಾಗ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅನ್ನೋದು ಎಷ್ಟೋ ಪ್ರಯೋಜನಕಾರಿಯೋ, ಅಷ್ಟೇ ಅಪಾಯಕಾರಿಯೂ ಹೌದು.. ಅಂತೆಯೇ ಕೇರಳದಲ್ಲಿ ವ್ಯಕ್ತಿಯೊಬ್ಬ 40 ಸಾವಿರ ರೂಪಾಯಿ ಕಳೆದುಕೊಂಡು ಸುದ್ದಿಯಾಗಿದ್ದಾರೆ!

ಏನಿದು ಪ್ರಕರಣ..?

ಹೌದು, AI-ಡೀಪ್‌ಫೇಕ್ (AI-deepfake) ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡು ಕೇರಳದ ವ್ಯಕ್ತಿಗೆ 40,000 ರೂಪಾಯಿ ವಂಚನೆ ಮಾಡಲಾಗಿದೆ. ಕೋಝಿಕ್ಕೋಡ್ ಮೂಲದ ರಾಧಾಕೃಷ್ಣನ್ ಎಂಬ ವ್ಯಕ್ತಿಯ ಮೊಬೈಲ್​​ಗೆ ವಾಟ್ಸ್​​ಆ್ಯಪ್​ ವಿಡಿಯೋ ಕರೆ ಒಂದು ಬಂದಿತ್ತು. ಕರೆ ಸ್ವೀಕರಿಸಿದ್ದ ರಾಧಾಕೃಷ್ಣಗೆ ಅಚ್ಚರಿ ಕಾದಿತ್ತು. ಕರೆ ಮಾಡಿದ ವ್ಯಕ್ತಿಯು, ಆಂಧ್ರ ಪ್ರದೇಶದ ಮೂಲದ ಮಾಜಿ ಸಹೋದ್ಯೋಗಿಯಂತೆ ಕಾಣುತ್ತಿದ್ದ.

ನಿಜವಾಗಿಯೂ ಆತ ತನ್ನ ಮಾಜಿ ಸಹದ್ಯೋಗಿ ಅಂದ್ಕೊಂಡಿದ್ದ, ರಾಧಾಕೃಷ್ಣ ವಿಡಿಯೋ ಕಾಲ್​ನಲ್ಲಿ ಮಾತುಕತೆ ಮುಂದುವರಿಸಿದ್ದ. ವಿಡಿಯೋ ಕಾಲ್​ನಲ್ಲಿ ಕಾಣುತ್ತಿದ್ದ ವ್ಯಕ್ತಿ, ತನ್ನ ಸಂಬಂಧಿಕರೊಬ್ಬರು ಆಸ್ಪತ್ರೆಗೆ ದಾಖಲಾಗಿದ್ದಾರೆ. ಅವರಿಗೆ ಶಸ್ತ್ರ ಚಿಕಿತ್ಸೆಯ ಅಗತ್ಯ ಇದ್ದು, ತುರ್ತಾಗಿ ಹಣ ಬೇಕು ಅಂತಾ ಮನವಿ ಮಾಡಿಕೊಂಡಿದ್ದ. ಇದನ್ನು ನಂಬಿದ ರಾಧಾಕೃಷ್ಣ 40,000 ರೂಪಾಯಿ ಹಣವನ್ನು ಆನ್​​ಲೈನ್​​ನಲ್ಲಿ ಪೇ ಮಾಡಿದ್ದಾರೆ.

ಅನುಮಾನ ಬಂದಿದ್ದು ಹೇಗೆ..?

ಸ್ವಲ್ಪ ಸಮಯದ ನಂತರ ಅದೇ ವ್ಯಕ್ತಿಯಿಂದ 35 ಸಾವಿರ ರೂಪಾಯಿ ನೀಡುವಂತೆ ಕೋರಿ ಮತ್ತೆ ಕರೆ ಬಂದಿದೆ. ಆಗ ರಾಧಾಕೃಷ್ಣಗೆ ಸಣ್ಣ ಅನುಮಾನ ಶುರುವಾಗಿದೆ. ಕೂಡಲೇ ಆಂಧ್ರದಲ್ಲಿರುವ ಮಾಜಿ ಸಹೊದ್ಯೋಗಿ ಬಗ್ಗೆ ಕ್ರಾಸ್​ ಚೆಕ್ ಮಾಡಿದ್ದಾರೆ. ಆಗ, ಕರೆ ಮಾಡಿದ್ದು ನಿಜವಾದ ಸ್ನೇಹಿತನಲ್ಲ, ಸ್ನೇಹಿತನ ರೂಪದಲ್ಲಿ ಕಾಣಿಸಿಕೊಂಡ AI ಎಂದು ಗೊತ್ತಾಗಿದೆ.

ಮೋಸ ಹೋಗಿರುವ ಬಗ್ಗೆ ಕೂಡಲೇ ಕೇರಳ ಪೊಲೀಸರಿಗೆ ರಾಧಾಕೃಷ್ಣ ದೂರು ನೀಡಿದ್ದಾರೆ. ಪೊಲೀಸರು ತನಿಖೆ ಆರಂಭಿಸಿದ್ದಾರೆ. ಕೇರಳ ಸೈಬರ್ ಪೊಲೀಸರು ನೀಡಿರುವ ಮಾಹಿತಿ ಪ್ರಕಾರ, ವಂಚಕರು AI ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ನಕಲಿ ವೀಡಿಯೋ ಕಾಲ್ ಮಾಡಿದ್ದಾರೆ. ಇದು ಕೇರಳದಲ್ಲಿ ನಡೆದ ಮೊದಲ AI ವಂಚನೆ ಪ್ರಕರಣವಾಗಿದೆ. ವಂಚಕರು ಸೋಶಿಯಲ್ ಮೀಡಿಯಾವನ್ನು ಬಳಸಿಕೊಂಡು AI ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಿಮ್ಮನ್ನು ಇದೇ ರೀತಿ ಯಾಮಾರಿಸಬಹುದು. ಯಾವುದಕ್ಕೂ ಹುಷಾರಾಗಿರಿ ಎಂದು ಎಚ್ಚರಿಸಿದ್ದಾರೆ.

 

ಈ ರೀತಿಯ ಅನುಮಾನಗಳು ನಿಮ್ಮನ್ನು ಕಾಡಿದಾಗ ಸತ್ಯಾಸತ್ಯಗೆಗಳನ್ನು ಮೊದಲು ತಿಳಿದುಕೊಳ್ಳಿ. ಮತ್ತೆ ಮತ್ತೆ ಪರಿಶೀಲನೆ ಮಾಡಿ, ಸತ್ಯ ಏನು ಅನ್ನೋದನ್ನು ಅರಿತುಕೊಳ್ಳಿ. ಅನುಮಾನಗಳು ಹೆಚ್ಚಾದರೆ, ಸಹಾಯವಾಣಿ 1930ಕ್ಕೆ ಕರೆ ಮಾಡಿ ಮಾಹಿತಿ ನೀಡಿ ಎಂದು ಕೇರಳ ಪೊಲೀಸರು ಜಾಗೃತಿ ಮೂಡಿಸುತ್ತಿದ್ದಾರೆ.

ಏನಿದು AI ಆಧಾರಿತ Deepfake..?

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ Deepfake ಮಾಡುವುದಾಗಿದೆ. ಅಂದರೆ Facial reenactment ಎಂಬ ಟೆಕ್ನಿಕ್ ಬಳಸಿಕೊಂಡು, ಓರ್ವ ವ್ಯಕ್ತಿಯ ಮುಖದ ಚಹರೆ, ಹಾವ-ಭಾವ ರೀತಿಯಲ್ಲೇ ನಕಲಿ ಮಾಡುವುದಾಗಿದೆ. ನಕಲಿ ವ್ಯಕ್ತಿತ್ವನ್ನು ಸೃಷ್ಟಿಸಿ ವಿಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೂಲಕ ಮೋಸಗೊಳಿಸುವುದೇ AI-Deepfake ಆಗಿದೆ. ವಂಚಕರ ಉದ್ದೇಶವು ವೈಯಕ್ತಿಕ ಮಾಹಿತಿ, ಹಣವನ್ನು ಪಡೆಯಲು ವಿಶ್ವಾಸಾರ್ಹ ಸ್ನೇಹಿತ ಅಥವಾ ಕುಟುಂಬದ ಸದಸ್ಯರಂತೆ ನಟಿಸಲು ಈ ತಂತ್ರದ ಮೊರೆ ಹೋಗ್ತಿದ್ದಾರೆ.

ಕಾನೂನು ಏನು ಹೇಳುತ್ತೆ..?

ಯಾವುದೇ ವ್ಯಕ್ತಿಯ ಅನುಮತಿ ಇಲ್ಲದೇ ಯಾವುದೇ ವ್ಯಕ್ತಿಯ AI-Deepfake ಮಾಡುವಂತಿಲ್ಲ. ಒಂದು ವೇಳೆ ಹಾಗೆ ಮಾಡಿದರೆ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ. ಯೂರೋಪಿಯನ್ ದೇಶಗಳಲ್ಲಿ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಹೆಚ್ಚಾಗಿ ನಡೆಯುತ್ತಿದ್ದವು. ಅಶ್ಲೀಲ ಚಿತ್ರಗಳನ್ನು ತಯಾರಿಸುವಾಗ ಈ ರೀತಿಯ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿ ವಿಡಿಯೋ ಮಾಡಿದ್ದ ಪ್ರಸಂಗಗಳು ಕೇಳಿಬಂದಿದ್ದವು. ಇದೀಗ ಭಾರತದಲ್ಲಿ ಹಣಕ್ಕಾಗಿ AI-Deepfake ಮಾಡಿದ ಮೊದಲ ಪ್ರಕರಣ ಸದ್ದು ಮಾಡಿದೆ. ಇದು ಸೈಬರ್​ ಆ್ಯಕ್ಟ್​ ಅಡಿ ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದೆ.

ಇಂಥ ವಂಚನೆಯಿಂದ ನೀವು ಪಾರಾಗಲು ಏನ್ಮಾಡಬೇಕು..?

  • ನಿಮಗೆ ಗೊತ್ತಿರದ ಅಥವಾ ನಿರೀಕ್ಷಿಸದ ಜನರಿಂದ ಬರುವ ಕರೆಗಳ ಬಗ್ಗೆ ಸಂಶಯವಿರಲಿ. ಯಾರಾದರೂ ಸ್ನೇಹಿತ ಅಥವಾ ಕುಟುಂಬದ ಸದಸ್ಯರೆಂದು ಹೇಳಿಕೊಂಡರೆ ಅವರ ಗುರುತು ನಿಮಗೆ ಖಚಿತವಾಗದಿದ್ದರೆ ವೈಯಕ್ತಿಕ ಪ್ರಶ್ನೆಗಳನ್ನು ಕೇಳಿ ತಿಳಿದುಕೊಳ್ಳಿ. ನೀವು ಬಯಸಿದ ಉತ್ತರ ಸಿಗದಿದ್ದರೆ ನಿಮ್ಮನ್ನು ಮೋಸ ಮಾಡಲು ಯತ್ನಿಸುತ್ತಿರೋದು ಖಾತರಿ ಆಗುತ್ತದೆ.
  • ಪರಿಚಯವಿಲ್ಲದ, ನಂಬಿಕೆಯಿಲ್ಲದ ಜನರಿಗೆ ವೈಯಕ್ತಿಕ ಮಾಹಿತಿ, ಹಣ ನೀಡಬೇಡಿ. ಕ್ರೆಡಿಟ್ ಕಾರ್ಡ್​, ಓಟಿಪಿ ಅಂತಹ ವೈಯಕ್ತಿಕ ಮಾಹಿತಿಗಳನ್ನು ಕೇಳಿದರೆ ಎಚ್ಚರದಿಂದ ಇರಬೇಕು.
  • ಇದು ಮೋಸದ ಕರೆ ಎಂದು ಗೊತ್ತಾದ ಕೂಡಲೇ ಕಾಲ್ ಕಟ್ ಮಾಡಿ. ಅನಗತ್ಯ ಮಾತುಗಳಿಂದ ದೂರ ಇರೋದು ಉತ್ತಮ
  • ಅನುಮಾನಾಸ್ಪದ ಕರೆಗಳ ಬಗ್ಗೆ ಪೊಲೀಸರಿಗೆ ಮಾಹಿತಿ ನೀಡಿ. ನಕಲಿ ಕರೆಗಳ ಸ್ವರೂಪಗಳ ಬಗ್ಗೆ ಮಾಹಿತಿ ಪಡೆದುಕೊಂಡಿರಿ
  • ಕೆಲವೊಮ್ಮೆ ಕರೆ ಮಾಡಿದವರ ಧ್ವನಿಯು ನೀವು ನೆನಪಿಟ್ಟುಕೊಳ್ಳುವುದಕ್ಕಿಂತ ಭಿನ್ನವಾಗಿರಬಹುದು
  • ಕರೆ ಮಾಡಿದವರು ತಮಗೆ ಗೊತ್ತಿಲ್ಲದ ವೈಯಕ್ತಿಕ ಮಾಹಿತಿಯನ್ನು ಕೇಳುತ್ತಿರಬಹುದು, ಯಾವುದಕ್ಕೂ ಹುಷಾರ್ ಆಗಿರಿ..

ಒಟ್ಟಾರೆ, ಜನರನ್ನು ಮೋಸಗೊಳಿಸಲು ವಂಚಕರು ಹುಡುಕುತ್ತಿರುವ ಹೊಸ ವಿಧಾನ ಇದಾಗಿದೆ. ಇಂದು ಕೇರಳಕ್ಕೆ ಹೊಸ ಹಗರಣ ಇದಾಗಿದ್ದರೂ, ಪ್ರಪಂಚದಾದ್ಯಂತ ಈ ರೀತಿಯ ವಂಚನೆಗಳು ಸಾಮಾನ್ಯವಾಗಿಬಿಟ್ಟಿವೆ. ಯಾಕಂದರೆ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ನಕಲಿ ಮಾಡುವ ಪ್ರಕ್ರಿಯೆಗಳು ಇಂದು ಅಂಗೈಯಲ್ಲೇ ಸುಲಭವಾಗಿ ಸಿಗುತ್ತಿದೆ. ವಿಷಯ ಹೆಚ್ಚು ಗಂಭೀರವಾಗಿರೋದ್ರಿಂದ ನಕಲಿ ವೀಡಿಯೋ, ಆಡಿಯೋ ಕರೆಗಳ ಮೇಲೆ ಎಚ್ಚರ ಇರಲಿ. ಮುಗ್ಧರ ಮುಗ್ಧತೆಯ ಲಾಭ ಪಡೆಯಲು ಬಕಪಕ್ಷಿಗಳ ದಂಡೇ ಈ ಪ್ರಪಂಚದಲ್ಲಿದೆ. ಅದಕ್ಕೆ ಇಂದಿನ ನಮ್ಮ ತಂತ್ರಜ್ಞಾನಗಳು ಅವರನ್ನು ಮತ್ತಷ್ಟು ಸುಲಭವಾಗಿಸಿವೆ. ಯಾವುದಕ್ಕೂ ಹುಷಾರ್..!

ವಿಶೇಷ ವರದಿ: ಗಣೇಶ್ ಕೆರೆಕುಳಿ

ವಿಶೇಷ ಸೂಚನೆ: ಎಲ್ಲಾ DTH & Cableನಲ್ಲಿ ನ್ಯೂಸ್​ಫಸ್ಟ್​ ಚಾನೆಲ್​​​ ಲಭ್ಯ

Load More