AI ನಕಲಿ ಸ್ಯಾಟಲೈಟ್ ಚಿತ್ರಗಳು: US-Iran ಯುದ್ಧದ ಬಗ್ಗೆ ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ಭಾರಿ ತಪ್ಪು ಮಾಹಿತಿ
Artificial Intelligence (AI) ತಂತ್ರಜ್ಞಾನವು ಇತ್ತೀಚಿನ ವರ್ಷಗಳಲ್ಲಿ ಹಲವು ಕ್ಷೇತ್ರಗಳಲ್ಲಿ ಕ್ರಾಂತಿ ತಂದಿದೆ. ಆದರೆ ಇದೇ ತಂತ್ರಜ್ಞಾನ ಈಗ ಯುದ್ಧದ ಸಮಯದಲ್ಲಿ ತಪ್ಪು ಮಾಹಿತಿ ಹರಡುವ ಹೊಸ ಸಾಧನವಾಗುತ್ತಿದೆ ಎಂಬ ಆತಂಕವನ್ನು ತಜ್ಞರು ವ್ಯಕ್ತಪಡಿಸುತ್ತಿದ್ದಾರೆ.
ಇತ್ತೀಚೆಗೆ ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ವೈರಲ್ ಆದ ಒಂದು ಸ್ಯಾಟಲೈಟ್ ಚಿತ್ರ ಈ ಅಪಾಯವನ್ನು ಸ್ಪಷ್ಟವಾಗಿ ತೋರಿಸಿದೆ. ಆ ಚಿತ್ರದಲ್ಲಿ ಕತಾರ್ನಲ್ಲಿರುವ ಅಮೆರಿಕದ ಸೈನಿಕ ತಾಣ ಸಂಪೂರ್ಣವಾಗಿ ನಾಶವಾಗಿದೆ ಎಂಬಂತೆ ಕಾಣಿಸುತ್ತಿತ್ತು.
ಆದರೆ ನಂತರ ನಡೆದ ಪರಿಶೀಲನೆಯಲ್ಲಿ ಅದು AI ಬಳಸಿ ತಯಾರಿಸಿದ ನಕಲಿ ಚಿತ್ರ ಎಂದು ಬಹಿರಂಗವಾಯಿತು.
ಈ ಘಟನೆ ಯುದ್ಧದ ಸಂದರ್ಭದಲ್ಲಿ ಟೆಕ್ನಾಲಜಿ ಆಧಾರಿತ ತಪ್ಪು ಮಾಹಿತಿ ಎಷ್ಟು ವೇಗವಾಗಿ ಹರಡಬಹುದು ಎಂಬುದಕ್ಕೆ ಒಂದು ದೊಡ್ಡ ಉದಾಹರಣೆ ಎಂದು ತಜ್ಞರು ಹೇಳುತ್ತಿದ್ದಾರೆ.
ವೈರಲ್ ಆದ ನಕಲಿ ಸ್ಯಾಟಲೈಟ್ ಚಿತ್ರ
ಈ ಚಿತ್ರವನ್ನು ಮೊದಲಿಗೆ ಇರಾನ್ನೊಂದಿಗೆ ಸಂಬಂಧ ಹೊಂದಿರುವ English daily ಪತ್ರಿಕೆ “Tehran Times” ತನ್ನ ಸಾಮಾಜಿಕ ಜಾಲತಾಣ ಖಾತೆಯಲ್ಲಿ ಹಂಚಿಕೊಂಡಿತ್ತು.
ಅಲ್ಲಿ ಪೋಸ್ಟ್ ಮಾಡಿದ ಚಿತ್ರದಲ್ಲಿ ಎರಡು ಭಾಗಗಳಿದ್ದವು:
-
Before image
-
After image
ಅವುಗಳಲ್ಲಿ ಅಮೆರಿಕದ ಸೈನಿಕ ರೇಡಾರ್ ಉಪಕರಣಗಳು ಸಂಪೂರ್ಣವಾಗಿ ನಾಶವಾಗಿರುವಂತೆ ತೋರಿಸಲಾಗಿತ್ತು.
ಈ ಚಿತ್ರವು ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ಬಹಳ ವೇಗವಾಗಿ ವೈರಲ್ ಆಯಿತು ಮತ್ತು ಲಕ್ಷಾಂತರ ಮಂದಿ ಅದನ್ನು ನೋಡಿದರು.
ನಿಜವಾದ ಚಿತ್ರ ಎಲ್ಲಿಂದ ಬಂದಿತ್ತು?
ನಂತರ ನಡೆದ ವಿಶ್ಲೇಷಣೆಯಲ್ಲಿ ಸಂಶೋಧಕರು ಒಂದು ಪ್ರಮುಖ ಸಂಗತಿಯನ್ನು ಪತ್ತೆಹಚ್ಚಿದರು.
ಆ ಚಿತ್ರ ವಾಸ್ತವವಾಗಿ:
👉 Google Earth ನಲ್ಲಿ ಕಳೆದ ವರ್ಷ ತೆಗೆದ ಅಮೆರಿಕದ ಸೈನಿಕ ತಾಣದ ಚಿತ್ರ
ಆದರೆ ಆ ಮೂಲ ಚಿತ್ರ:
-
ಕತಾರ್ನಲ್ಲಿನ ತಾಣದದ್ದಲ್ಲ
-
ಅದು ಬಹ್ರೈನ್ನಲ್ಲಿನ US base ಚಿತ್ರದ ಆಧಾರವಾಗಿತ್ತು.
AI ಬಳಸಿ ಅದನ್ನು ಬದಲಾಯಿಸಿ ನಾಶವಾದಂತೆ ತೋರಿಸಲಾಗಿದೆ.
ನಕಲಿ ಚಿತ್ರವನ್ನು ಗುರುತಿಸಿದ ಸುಳಿವು
ಸಂಶೋಧಕರು ಚಿತ್ರವನ್ನು ಗಮನದಿಂದ ಪರಿಶೀಲಿಸಿದಾಗ ಕೆಲವು ಅಸಾಧಾರಣ ಸಂಗತಿಗಳು ಕಂಡುಬಂದವು.
ಅವುಗಳಲ್ಲಿ ಪ್ರಮುಖವಾದುದು:
ಒಂದೇ ಸಾಲಿನಲ್ಲಿ ನಿಂತಿದ್ದ ಕಾರುಗಳು.
ಮೂಲ ಚಿತ್ರದಲ್ಲೂ ಮತ್ತು ನಕಲಿ ಚಿತ್ರದಲ್ಲೂ:
👉 ಕಾರುಗಳ ಸ್ಥಾನಗಳು ಒಂದೇ ರೀತಿಯಲ್ಲಿ ಇದ್ದವು.
ಯುದ್ಧದಿಂದ ತಾಣ ನಾಶವಾದರೆ ಕಾರುಗಳ ಸ್ಥಾನ ಬದಲಾಗಬೇಕು.
ಇದರಿಂದ ಚಿತ್ರ AI ಮೂಲಕ ಮಾರ್ಪಡಿಸಲಾಗಿದೆ ಎಂಬುದು ಸ್ಪಷ್ಟವಾಯಿತು.
AI ಡಿಸ್ಇನ್ಫರ್ಮೇಷನ್ ಯುಗ
ಈ ಘಟನೆ ಒಂದು ದೊಡ್ಡ ಸಮಸ್ಯೆಯನ್ನು ತೋರಿಸುತ್ತದೆ.
Generative AI ಬಂದ ನಂತರ:
-
ನಕಲಿ ಚಿತ್ರಗಳು
-
ನಕಲಿ ವಿಡಿಯೋಗಳು
-
ನಕಲಿ ಸುದ್ದಿಗಳು
ತುಂಬಾ ಸುಲಭವಾಗಿ ಸೃಷ್ಟಿಸಲಾಗುತ್ತಿದೆ.
ಇದರಿಂದ ಡಿಜಿಟಲ್ ಪ್ರಚಾರ ಯುದ್ಧ (information warfare) ಮತ್ತಷ್ಟು ಬಲವಾಗಿದೆ.
OSINT ಸಂಶೋಧಕರ ಎಚ್ಚರಿಕೆ
Open Source Intelligence (OSINT) ಸಂಶೋಧಕ Brady Africk ಈ ವಿಷಯದ ಬಗ್ಗೆ ಎಚ್ಚರಿಕೆ ನೀಡಿದ್ದಾರೆ.
ಅವರ ಪ್ರಕಾರ:
ಇತ್ತೀಚಿನ ಯುದ್ಧಗಳಲ್ಲಿ ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ಮಾರ್ಪಡಿಸಿದ ಸ್ಯಾಟಲೈಟ್ ಚಿತ್ರಗಳು ಹೆಚ್ಚಾಗುತ್ತಿವೆ.
ಅವರು ಹೇಳಿರುವುದೇನೆಂದರೆ:
AI ಚಿತ್ರಗಳಲ್ಲಿ ಕೆಲವು ಸಾಮಾನ್ಯ ಲಕ್ಷಣಗಳು ಇರುತ್ತವೆ:
-
ಅಸಾಮಾನ್ಯ ಕೋನಗಳು
-
ಮಸುಕಾದ ವಿವರಗಳು
-
ನೈಜ ಜಗತ್ತಿಗೆ ಹೊಂದದ ವಸ್ತುಗಳು
ಇವುಗಳನ್ನು ಗಮನಿಸಿದರೆ ನಕಲಿ ಚಿತ್ರಗಳನ್ನು ಗುರುತಿಸಬಹುದು.
ಮತ್ತೊಂದು ನಕಲಿ ಚಿತ್ರ ಪತ್ತೆ
Information warfare ವಿಶ್ಲೇಷಕ Tal Hagin ಮತ್ತೊಂದು ನಕಲಿ ಚಿತ್ರವನ್ನು ಗುರುತಿಸಿದ್ದಾರೆ.
ಆ ಚಿತ್ರದಲ್ಲಿ:
ಅಮೆರಿಕ ಮತ್ತು ಇಸ್ರೇಲ್ ಯುದ್ಧವಿಮಾನಗಳು ಇರಾನ್ ವಿಮಾನಗಳನ್ನು ನೆಲದಲ್ಲೇ ನಾಶಮಾಡಿದಂತೆ ತೋರಿಸಲಾಗಿತ್ತು.
ಆದರೆ ಪರಿಶೀಲನೆ ಮಾಡಿದಾಗ:
-
ಚಿತ್ರದಲ್ಲಿ ಅಸಂಬದ್ಧ coordinates
-
AI watermark
ಇವು ಕಂಡುಬಂದವು.
Google AI watermark ಪತ್ತೆ
ಸಂಶೋಧಕರು ಚಿತ್ರವನ್ನು ವಿಶ್ಲೇಷಿಸಿದಾಗ ಅದರಲ್ಲಿ SynthID watermark ಕಂಡುಬಂದಿತು.
SynthID ಎಂದರೆ:
👉 Google AI ಮೂಲಕ ನಿರ್ಮಿತ ಚಿತ್ರಗಳನ್ನು ಗುರುತಿಸಲು ಬಳಸುವ ಡಿಜಿಟಲ್ watermark.
ಇದು AI ಚಿತ್ರವಾಗಿರುವುದನ್ನು ದೃಢಪಡಿಸಿತು.
ಯುದ್ಧದಲ್ಲಿ ಮಾಹಿತಿ ಯುದ್ಧ
ಯುದ್ಧಗಳು ಈಗ ಕೇವಲ ಸೈನಿಕ ಹೋರಾಟ ಮಾತ್ರವಲ್ಲ.
ಇವುಗಳಲ್ಲಿ ಇನ್ನೊಂದು ಪ್ರಮುಖ ಅಂಶ:
👉 Information warfare
ಅಂದರೆ:
-
ತಪ್ಪು ಮಾಹಿತಿ ಹರಡುವುದು
-
ಜನರ ಅಭಿಪ್ರಾಯ ಬದಲಿಸುವುದು
-
ಶತ್ರು ದೇಶದ ವಿಶ್ವಾಸ ಕುಗ್ಗಿಸುವುದು
AI ಇದನ್ನು ಇನ್ನಷ್ಟು ಸುಲಭ ಮಾಡುತ್ತಿದೆ.
ಹಿಂದಿನ ಯುದ್ಧಗಳಲ್ಲಿ ಕೂಡ ಇದೇ ಸಮಸ್ಯೆ
AI ನಕಲಿ ಚಿತ್ರಗಳು ಈಗ ಮಾತ್ರ ಕಂಡುಬರುತ್ತಿಲ್ಲ.
ಇವು ಹಿಂದೆ ನಡೆದ ಹಲವು ಯುದ್ಧಗಳಲ್ಲೂ ಕಾಣಿಸಿಕೊಂಡಿವೆ.
ಉದಾಹರಣೆ:
-
Russia–Ukraine war
-
India–Pakistan conflict
-
Middle East conflicts
ಈ ಎಲ್ಲ ಸಂದರ್ಭಗಳಲ್ಲಿ ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ನಕಲಿ ಚಿತ್ರಗಳು ವೈರಲ್ ಆಗಿದ್ದವು.
ತಪ್ಪು ಮಾಹಿತಿ ನಿಜ ಜೀವನದ ಮೇಲೆ ಪರಿಣಾಮ
ತಪ್ಪು ಮಾಹಿತಿ ಕೇವಲ ಇಂಟರ್ನೆಟ್ ಮಟ್ಟದಲ್ಲೇ ಉಳಿಯುವುದಿಲ್ಲ.
ಅದು ಹಲವು ರೀತಿಯಲ್ಲಿ ಪರಿಣಾಮ ಬೀರುತ್ತದೆ.
ಉದಾಹರಣೆಗೆ:
-
ಸಾರ್ವಜನಿಕ ಅಭಿಪ್ರಾಯ ಬದಲಾಗಬಹುದು
-
ಯುದ್ಧದ ಬಗ್ಗೆ ಜನರಲ್ಲಿ ತಪ್ಪು ಕಲ್ಪನೆ ಮೂಡಬಹುದು
-
ಹಣಕಾಸು ಮಾರುಕಟ್ಟೆಯ ಮೇಲೂ ಪರಿಣಾಮ ಬೀರುತ್ತದೆ
ನೈಜ ಸ್ಯಾಟಲೈಟ್ ಚಿತ್ರಗಳ ಮಹತ್ವ
ಯುದ್ಧದ ಸಂದರ್ಭದಲ್ಲಿ ನೈಜ ಸ್ಯಾಟಲೈಟ್ ಚಿತ್ರಗಳು ಅತ್ಯಂತ ಪ್ರಮುಖವಾಗಿವೆ.
ಅವು:
-
ಸೈನಿಕ ಚಟುವಟಿಕೆಗಳನ್ನು ಗುರುತಿಸಲು
-
ಭದ್ರತಾ ಪರಿಸ್ಥಿತಿಯನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು
-
ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಖಂಡಿಸಲು
ಸಹಾಯ ಮಾಡುತ್ತವೆ.
ನೈಜ ಘಟನೆ: Niger ವಿಮಾನ ನಿಲ್ದಾಣ ದಾಳಿ
ಇತ್ತೀಚೆಗೆ ನೈಜರ್ ದೇಶದ Niamey airport ಮೇಲೆ ದಾಳಿ ನಡೆದಾಗ ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ಕೆಲವು ಚಿತ್ರಗಳು ವೈರಲ್ ಆಗಿದ್ದವು.
ಆ ಚಿತ್ರಗಳಲ್ಲಿ:
ವಿಮಾನ ನಿಲ್ದಾಣದ ಕಟ್ಟಡ ಬೆಂಕಿಯಲ್ಲಿ ಸುಡುತ್ತಿರುವಂತೆ ಕಾಣಿಸುತ್ತಿತ್ತು.
ಆದರೆ ನಂತರ ಸ್ಯಾಟಲೈಟ್ ಕಂಪನಿ Vantor ಪರಿಶೀಲಿಸಿದಾಗ:
👉 ಆ ಚಿತ್ರಗಳು AI ಮೂಲಕ ಸೃಷ್ಟಿಸಲ್ಪಟ್ಟ ನಕಲಿ ಚಿತ್ರಗಳು ಎಂದು ಪತ್ತೆಯಾಯಿತು.
ತಜ್ಞರ ಎಚ್ಚರಿಕೆ
Washington ವಿಶ್ವವಿದ್ಯಾಲಯದ ಪ್ರೊಫೆಸರ್ Bo Zhao ಈ ಬಗ್ಗೆ ಎಚ್ಚರಿಕೆ ನೀಡಿದ್ದಾರೆ.
ಅವರ ಪ್ರಕಾರ:
ಯುದ್ಧದ ಸಂದರ್ಭದಲ್ಲಿ ಸ್ಯಾಟಲೈಟ್ ಚಿತ್ರಗಳನ್ನು ಜನರು ನೈಜ ಸಾಕ್ಷಿ ಎಂದು ನಂಬುತ್ತಾರೆ.
ಆದರೆ AI ಚಿತ್ರಗಳು ಹೆಚ್ಚುತ್ತಿರುವುದರಿಂದ:
👉 ಜನರು ಹೆಚ್ಚಿನ ಜಾಗ್ರತೆ ವಹಿಸಬೇಕು.
ಸಾರ್ವಜನಿಕರಿಗೆ ಮುಖ್ಯ ಸಲಹೆ
AI ಯುಗದಲ್ಲಿ ಮಾಹಿತಿ ಪರಿಶೀಲನೆ ಅತ್ಯಂತ ಮುಖ್ಯವಾಗಿದೆ.
ಯಾವುದೇ ಚಿತ್ರ ಅಥವಾ ವಿಡಿಯೋ ನೋಡಿದಾಗ:
-
ಮೂಲವನ್ನು ಪರಿಶೀಲಿಸಿ
-
ನಂಬಲರ್ಹ ಮಾಧ್ಯಮಗಳನ್ನು ನೋಡಿ
-
ತಕ್ಷಣ ನಂಬಬೇಡಿ
ಇವುಗಳನ್ನು ಪಾಲಿಸುವುದು ಅಗತ್ಯ.
Artificial Intelligence ತಂತ್ರಜ್ಞಾನವು ಹಲವು ಪ್ರಯೋಜನಗಳನ್ನು ನೀಡಿದರೂ, ಅದರ ದುರುಪಯೋಗವೂ ಹೆಚ್ಚುತ್ತಿದೆ.
ವಿಶೇಷವಾಗಿ ಯುದ್ಧದಂತಹ ಸೂಕ್ಷ್ಮ ಪರಿಸ್ಥಿತಿಯಲ್ಲಿ AI ನಕಲಿ ಚಿತ್ರಗಳು:
-
ತಪ್ಪು ಮಾಹಿತಿ ಹರಡಬಹುದು
-
ಜನರನ್ನು ಗೊಂದಲಕ್ಕೆ ದೂಡಬಹುದು
-
ಜಾಗತಿಕ ರಾಜಕೀಯದ ಮೇಲೂ ಪರಿಣಾಮ ಬೀರುತ್ತವೆ
ಹೀಗಾಗಿ ತಜ್ಞರು ನೀಡಿರುವ ಸಂದೇಶ ಸ್ಪಷ್ಟವಾಗಿದೆ:
👉 AI ಯುಗದಲ್ಲಿ ಪ್ರತಿಯೊಂದು ದೃಶ್ಯವನ್ನೂ ನಂಬುವ ಮೊದಲು ಪರಿಶೀಲನೆ ಮಾಡುವುದು ಅಗತ್ಯ.
Read More:https://nexusworldchronicle.com/iwpc-womens-day-safe-equitable-media-india/