Advertisement
Advertisement

ಚೀನಾದಲ್ಲಿ ಮಾಡೆಲ್ ನಕಲು ಮಾಡುವುದನ್ನು ಎದುರಿಸಲು OpenAI, Anthropic, Google ಒಟ್ಟಿಗೆ ಸೇರುತ್ತವೆ

1773380397 nced2lhqls artificialintelligenceaidefencewarmar04jpg 31zq0fkahe.jpg


ಪ್ರತಿಸ್ಪರ್ಧಿಗಳಾದ OpenAI, Anthropic PBC, ಮತ್ತು Alphabet Inc. ನ Google ಜಾಗತಿಕ AI ರೇಸ್‌ನಲ್ಲಿ ಅಂಚನ್ನು ಪಡೆಯಲು ಅತ್ಯಾಧುನಿಕ US ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಮಾದರಿಗಳಿಂದ ಫಲಿತಾಂಶಗಳನ್ನು ಹೊರತೆಗೆಯುವ ಚೀನೀ ಸ್ಪರ್ಧಿಗಳನ್ನು ಹತ್ತಿಕ್ಕಲು ಒಟ್ಟಾಗಿ ಕೆಲಸ ಮಾಡಲು ಪ್ರಾರಂಭಿಸಿದೆ.

ಸಂಸ್ಥೆಗಳು ಫ್ರಾಂಟಿಯರ್ ಮಾಡೆಲ್ ಫೋರಮ್ ಮೂಲಕ ಮಾಹಿತಿಯನ್ನು ಹಂಚಿಕೊಳ್ಳುತ್ತಿವೆ, ಮೂರು ಟೆಕ್ ಕಂಪನಿಗಳು 2023 ರಲ್ಲಿ ಮೈಕ್ರೋಸಾಫ್ಟ್ ಕಾರ್ಪೊರೇಶನ್‌ನೊಂದಿಗೆ ಸ್ಥಾಪಿಸಿದ ಉದ್ಯಮ ಲಾಭರಹಿತ, ತಮ್ಮ ಸೇವಾ ನಿಯಮಗಳನ್ನು ಉಲ್ಲಂಘಿಸುವ ವಿರೋಧಿ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯ ಪ್ರಯತ್ನಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು, ವಿಷಯದ ಪರಿಚಯವಿರುವ ಜನರ ಪ್ರಕಾರ.

ಅಪರೂಪದ ಸಹಯೋಗವು US AI ಕಂಪನಿಗಳು ಎತ್ತಿರುವ ಕಳವಳದ ತೀವ್ರತೆಯನ್ನು ಒತ್ತಿಹೇಳುತ್ತದೆ, ಕೆಲವು ಬಳಕೆದಾರರು, ವಿಶೇಷವಾಗಿ ಚೀನಾದಲ್ಲಿ, ತಮ್ಮ ಉತ್ಪನ್ನಗಳ ಅನುಕರಣೆ ಆವೃತ್ತಿಗಳನ್ನು ರಚಿಸುತ್ತಿದ್ದಾರೆ, ಅದು ರಾಷ್ಟ್ರೀಯ ಭದ್ರತೆಯ ಅಪಾಯವನ್ನು ಉಂಟುಮಾಡುವ ಸಂದರ್ಭದಲ್ಲಿ ಅವುಗಳನ್ನು ಬೆಲೆಗೆ ತಗ್ಗಿಸಬಹುದು ಮತ್ತು ಗ್ರಾಹಕರನ್ನು ದೂರವಿಡಬಹುದು. US ಅಧಿಕಾರಿಗಳು ಅನಧಿಕೃತ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯು ವಾರ್ಷಿಕ ಲಾಭದಲ್ಲಿ ಸಿಲಿಕಾನ್ ವ್ಯಾಲಿ ಶತಕೋಟಿ ಡಾಲರ್‌ಗಳನ್ನು ಪ್ರಯೋಗಿಸುತ್ತದೆ ಎಂದು ಅಂದಾಜಿಸಿದ್ದಾರೆ, ಅನಾಮಧೇಯತೆಯ ಸ್ಥಿತಿಯಲ್ಲಿ ವಿವರಿಸಿದ ಸಂಶೋಧನೆಗಳ ಬಗ್ಗೆ ಪರಿಚಿತ ವ್ಯಕ್ತಿಯ ಪ್ರಕಾರ.
ಫ್ರಾಂಟಿಯರ್ ಮಾಡೆಲ್ ಫೋರಮ್ ಮೂಲಕ ಎದುರಾಳಿ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯ ಕುರಿತಾದ ಮಾಹಿತಿ-ಹಂಚಿಕೆ ಪ್ರಯತ್ನದ ಭಾಗವಾಗಿದೆ ಎಂದು OpenAI ದೃಢಪಡಿಸಿತು ಮತ್ತು ಅಭ್ಯಾಸದ ಕುರಿತು ಕಾಂಗ್ರೆಸ್‌ಗೆ ಕಳುಹಿಸಿದ ಇತ್ತೀಚಿನ ಮೆಮೊವನ್ನು ತೋರಿಸಿದೆ, ಅಲ್ಲಿ ಚೀನಾದ ಸಂಸ್ಥೆ DeepSeek “OpenAI ಮತ್ತು ಇತರ US ಗಡಿನಾಡು ಲ್ಯಾಬ್‌ಗಳು ಅಭಿವೃದ್ಧಿಪಡಿಸಿದ ಸಾಮರ್ಥ್ಯಗಳ ಮೇಲೆ ಉಚಿತ ಸವಾರಿ ಮಾಡಲು” ಪ್ರಯತ್ನಿಸುತ್ತಿದೆ ಎಂದು ಆರೋಪಿಸಿದೆ. Google, Anthropic, ಮತ್ತು ಫ್ರಾಂಟಿಯರ್ ಮಾಡೆಲ್ ಫೋರಮ್ ಕಾಮೆಂಟ್ ಮಾಡಲು ನಿರಾಕರಿಸಿವೆ.

ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯು ಒಂದು ತಂತ್ರವಾಗಿದ್ದು, ಹಳೆಯ “ಶಿಕ್ಷಕ” AI ಮಾದರಿಯನ್ನು ಹೊಸ “ವಿದ್ಯಾರ್ಥಿ” ಮಾದರಿಯನ್ನು ತರಬೇತಿ ಮಾಡಲು ಬಳಸಲಾಗುತ್ತದೆ, ಅದು ಹಿಂದಿನ ವ್ಯವಸ್ಥೆಯ ಸಾಮರ್ಥ್ಯಗಳನ್ನು ಪುನರಾವರ್ತಿಸುತ್ತದೆ – ಸಾಮಾನ್ಯವಾಗಿ ಮೊದಲಿನಿಂದ ಮೂಲ ಮಾದರಿಯನ್ನು ಉತ್ಪಾದಿಸುವುದಕ್ಕಿಂತ ಕಡಿಮೆ ವೆಚ್ಚದಲ್ಲಿ. ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯ ಕೆಲವು ರೂಪಗಳು ವ್ಯಾಪಕವಾಗಿ ಅಂಗೀಕರಿಸಲ್ಪಟ್ಟಿವೆ ಮತ್ತು AI ಲ್ಯಾಬ್‌ಗಳಿಂದ ಪ್ರೋತ್ಸಾಹಿಸಲ್ಪಡುತ್ತವೆ, ಉದಾಹರಣೆಗೆ ಕಂಪನಿಗಳು ತಮ್ಮದೇ ಆದ ಮಾದರಿಗಳ ಚಿಕ್ಕದಾದ, ಹೆಚ್ಚು ಪರಿಣಾಮಕಾರಿ ಆವೃತ್ತಿಗಳನ್ನು ರಚಿಸಿದಾಗ ಅಥವಾ ಸ್ಪರ್ಧಾತ್ಮಕವಲ್ಲದ ತಂತ್ರಜ್ಞಾನಗಳನ್ನು ನಿರ್ಮಿಸಲು ಹೊರಗಿನ ಡೆವಲಪರ್‌ಗಳಿಗೆ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯನ್ನು ಬಳಸಲು ಅನುಮತಿಸಿದಾಗ.

ಆದರೂ ಮೂರನೇ ವ್ಯಕ್ತಿಗಳು – ವಿಶೇಷವಾಗಿ ಚೀನಾ ಅಥವಾ ರಷ್ಯಾದಂತಹ ವಿರೋಧಿ ರಾಷ್ಟ್ರಗಳಲ್ಲಿ – ಅನುಮತಿಯಿಲ್ಲದೆ ಸ್ವಾಮ್ಯದ ಕೆಲಸವನ್ನು ಪುನರಾವರ್ತಿಸಲು ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯು ವಿವಾದಾಸ್ಪದವಾಗಿದೆ. ಪ್ರಮುಖ US AI ಲ್ಯಾಬ್‌ಗಳು ವಿದೇಶಿ ವಿರೋಧಿಗಳು AI ಮಾದರಿಗಳನ್ನು ಸುರಕ್ಷತಾ ಗಾರ್ಡ್‌ರೈಲ್‌ಗಳಿಂದ ಹೊರತೆಗೆಯಲು ತಂತ್ರವನ್ನು ಬಳಸಬಹುದೆಂದು ಎಚ್ಚರಿಸಿದೆ, ಉದಾಹರಣೆಗೆ ಮಿತಿಗಳು ಮಾರಣಾಂತಿಕ ರೋಗಕಾರಕವನ್ನು ಸೃಷ್ಟಿಸುವುದರಿಂದ ಬಳಕೆದಾರರನ್ನು ತಡೆಯುತ್ತದೆ.

ಇದನ್ನೂ ಓದಿ: ಮಸ್ಕ್‌ನ ‘ವಿರೋಧಿ ಸ್ಪರ್ಧಾತ್ಮಕ ನಡವಳಿಕೆ’ಯನ್ನು ತನಿಖೆ ಮಾಡಲು ಕ್ಯಾಲಿಫೋರ್ನಿಯಾ, ಡೆಲವೇರ್ ಅನ್ನು OpenAI ಒತ್ತಾಯಿಸುತ್ತದೆ

ಚೀನೀ ಲ್ಯಾಬ್‌ಗಳು ತಯಾರಿಸಿದ ಹೆಚ್ಚಿನ ಮಾದರಿಗಳು ತೆರೆದ ತೂಕವನ್ನು ಹೊಂದಿರುತ್ತವೆ, ಅಂದರೆ ಬಳಕೆದಾರರಿಗೆ ತಮ್ಮ ಸ್ವಂತ ವೇದಿಕೆಗಳಲ್ಲಿ ಉಚಿತವಾಗಿ ಡೌನ್‌ಲೋಡ್ ಮಾಡಲು ಮತ್ತು ಚಲಾಯಿಸಲು ಆಧಾರವಾಗಿರುವ AI ವ್ಯವಸ್ಥೆಯ ಭಾಗಗಳು ಸಾರ್ವಜನಿಕವಾಗಿ ಲಭ್ಯವಿವೆ ಮತ್ತು ಆದ್ದರಿಂದ ಬಳಸಲು ಅಗ್ಗವಾಗಿದೆ. ತಮ್ಮ ಮಾದರಿಗಳನ್ನು ಸ್ವಾಮ್ಯದಲ್ಲಿ ಇಟ್ಟುಕೊಂಡಿರುವ US AI ಕಂಪನಿಗಳಿಗೆ ಇದು ಆರ್ಥಿಕ ಸವಾಲನ್ನು ಒಡ್ಡುತ್ತದೆ, ಗ್ರಾಹಕರು ತಮ್ಮ ಉತ್ಪನ್ನಗಳಿಗೆ ಪ್ರವೇಶಕ್ಕಾಗಿ ಪಾವತಿಸುತ್ತಾರೆ ಮತ್ತು ಡೇಟಾ ಕೇಂದ್ರಗಳು ಮತ್ತು ಇತರ ಮೂಲಸೌಕರ್ಯಗಳಿಗಾಗಿ ಅವರು ಖರ್ಚು ಮಾಡಿದ ನೂರಾರು ಶತಕೋಟಿ ಡಾಲರ್‌ಗಳನ್ನು ಸರಿದೂಗಿಸಲು ಸಹಾಯ ಮಾಡುತ್ತಾರೆ.

AI ಜಗತ್ತನ್ನು ಬಿರುಗಾಳಿಯಿಂದ ತೆಗೆದುಕೊಂಡ R1 ತಾರ್ಕಿಕ ಮಾದರಿಯ ಡೀಪ್‌ಸೀಕ್‌ನ ಆಶ್ಚರ್ಯಕರ ಬಿಡುಗಡೆಯ ನಂತರದ ವಾರಗಳಲ್ಲಿ 2025 ರ ಜನವರಿಯಲ್ಲಿ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯು ಮೊದಲ ಬಾರಿಗೆ ಗಮನಾರ್ಹ ಪರಿಶೀಲನೆಗೆ ಒಳಗಾಯಿತು. ಶೀಘ್ರದಲ್ಲೇ, ಮೈಕ್ರೋಸಾಫ್ಟ್ ಮತ್ತು ಓಪನ್‌ಎಐ ಚೀನೀ ಸ್ಟಾರ್ಟ್‌ಅಪ್ R1 ಅನ್ನು ರಚಿಸಲು US ಸಂಸ್ಥೆಯ ಮಾದರಿಗಳಿಂದ ದೊಡ್ಡ ಪ್ರಮಾಣದ ಡೇಟಾವನ್ನು ಅಸಮರ್ಪಕವಾಗಿ ಹೊರಹಾಕಿದೆಯೇ ಎಂದು ತನಿಖೆ ಮಾಡಿದೆ, ಬ್ಲೂಮ್‌ಬರ್ಗ್ ಹಿಂದೆ ವರದಿ ಮಾಡಿದೆ.

ಫೆಬ್ರವರಿಯಲ್ಲಿ, OpenAI US ಶಾಸಕರಿಗೆ ಎಚ್ಚರಿಕೆ ನೀಡಿತು, DeepSeek ತನ್ನ ಉತ್ಪನ್ನಗಳ ದುರುಪಯೋಗವನ್ನು ತಡೆಗಟ್ಟಲು ಹೆಚ್ಚಿನ ಪ್ರಯತ್ನಗಳ ಹೊರತಾಗಿಯೂ US ಮಾದರಿಗಳಿಂದ ಫಲಿತಾಂಶಗಳನ್ನು ಹೊರತೆಗೆಯಲು ಹೆಚ್ಚು ಅತ್ಯಾಧುನಿಕ ತಂತ್ರಗಳನ್ನು ಬಳಸುವುದನ್ನು ಮುಂದುವರೆಸಿದೆ. ಡೀಪ್‌ಸೀಕ್ ತನ್ನ ಪ್ರಗತಿಯ ಚಾಟ್‌ಬಾಟ್‌ನ ಹೊಸ ಆವೃತ್ತಿಯನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯನ್ನು ಅವಲಂಬಿಸಿದೆ ಎಂದು OpenAI ಚೀನಾದ ಹೌಸ್ ಸೆಲೆಕ್ಟ್ ಕಮಿಟಿಗೆ ತನ್ನ ಮೆಮೊದಲ್ಲಿ ಹೇಳಿಕೊಂಡಿದೆ.

ವಿರೋಧಿ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯ ಬಗ್ಗೆ US AI ಕಂಪನಿಗಳಿಂದ ಮಾಹಿತಿ-ಹಂಚಿಕೆಯು ಸೈಬರ್‌ ಸೆಕ್ಯುರಿಟಿ ಉದ್ಯಮದಲ್ಲಿ ಪ್ರಮಾಣಿತ ಅಭ್ಯಾಸವನ್ನು ಪ್ರತಿಧ್ವನಿಸುತ್ತದೆ, ಅಲ್ಲಿ ಸಂಸ್ಥೆಗಳು ನೆಟ್‌ವರ್ಕ್ ರಕ್ಷಣೆಯನ್ನು ಬಲಪಡಿಸುವ ಮಾರ್ಗವಾಗಿ ದಾಳಿಗಳು ಮತ್ತು ವಿರೋಧಿಗಳ ತಂತ್ರಗಳ ಡೇಟಾವನ್ನು ನಿಯಮಿತವಾಗಿ ವಿನಿಮಯ ಮಾಡಿಕೊಳ್ಳುತ್ತವೆ. ಒಟ್ಟಾಗಿ ಕೆಲಸ ಮಾಡುವ ಮೂಲಕ, AI ಸಂಸ್ಥೆಗಳು ಅಭ್ಯಾಸವನ್ನು ಹೆಚ್ಚು ಪರಿಣಾಮಕಾರಿಯಾಗಿ ಪತ್ತೆಹಚ್ಚಲು ಪ್ರಯತ್ನಿಸುತ್ತಿವೆ, ಯಾರು ಜವಾಬ್ದಾರರು ಎಂಬುದನ್ನು ಗುರುತಿಸಲು ಮತ್ತು ಅನಧಿಕೃತ ಬಳಕೆದಾರರನ್ನು ಯಶಸ್ವಿಯಾಗದಂತೆ ತಡೆಯಲು ಪ್ರಯತ್ನಿಸುತ್ತಿದ್ದಾರೆ.

ಟ್ರಂಪ್ ಆಡಳಿತದ ಅಧಿಕಾರಿಗಳು ಎದುರಾಳಿ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯನ್ನು ನಿಯಂತ್ರಿಸಲು AI ಕಂಪನಿಗಳ ನಡುವೆ ಮಾಹಿತಿ ಹಂಚಿಕೆಯನ್ನು ಉತ್ತೇಜಿಸಲು ತಮ್ಮ ಮುಕ್ತತೆಯನ್ನು ಸೂಚಿಸಿದ್ದಾರೆ. ಕಳೆದ ವರ್ಷ ಅಧ್ಯಕ್ಷ ಡೊನಾಲ್ಡ್ ಟ್ರಂಪ್ ಅವರು ಅನಾವರಣಗೊಳಿಸಿದ AI ಕ್ರಿಯಾ ಯೋಜನೆಯು ಈ ಉದ್ದೇಶಕ್ಕಾಗಿ ಮಾಹಿತಿ-ಹಂಚಿಕೆ ಮತ್ತು ವಿಶ್ಲೇಷಣಾ ಕೇಂದ್ರವನ್ನು ರಚಿಸಲು ಕರೆ ನೀಡಿದೆ.

ಸದ್ಯಕ್ಕೆ, ಚೈನಾದಿಂದ ಸ್ಪರ್ಧಾತ್ಮಕ ಬೆದರಿಕೆಯನ್ನು ಎದುರಿಸಲು ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಆಂಟಿಟ್ರಸ್ಟ್ ಮಾರ್ಗದರ್ಶನದಲ್ಲಿ ಏನನ್ನು ಹಂಚಿಕೊಳ್ಳಬಹುದು ಎಂಬುದರ ಕುರಿತು AI ಕಂಪನಿಗಳ ಅನಿಶ್ಚಿತತೆಯಿಂದಾಗಿ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯ ಮೇಲಿನ ಮಾಹಿತಿ ಹಂಚಿಕೆ ಸೀಮಿತವಾಗಿದೆ ಎಂದು ತಿಳಿದಿರುವ ಜನರ ಪ್ರಕಾರ. US ಸರ್ಕಾರದಿಂದ ಹೆಚ್ಚಿನ ಸ್ಪಷ್ಟತೆಯಿಂದ ಸಂಸ್ಥೆಗಳು ಪ್ರಯೋಜನ ಪಡೆಯುತ್ತವೆ ಎಂದು ಜನರು ಹೇಳಿದರು.

ಡೀಪ್‌ಸೀಕ್ ತನ್ನ R1 ಬಿಡುಗಡೆಯೊಂದಿಗೆ 2025 ರ ಆರಂಭದಲ್ಲಿ ಜಾಗತಿಕ ಮಾರುಕಟ್ಟೆಗಳನ್ನು ರ್ಯಾಟಲ್ ಮಾಡಿದ ನಂತರ ಅಮೇರಿಕನ್ AI ಡೆವಲಪರ್‌ಗಳಲ್ಲಿ ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯು ಒಂದು ಪ್ರಮುಖ ಕಾಳಜಿಯಾಗಿದೆ. ಹೆಚ್ಚು ಸಾಮರ್ಥ್ಯವಿರುವ ಓಪನ್-ಸೋರ್ಸ್ ಮಾದರಿಗಳು ಚೀನಾದಲ್ಲಿ ವೃದ್ಧಿಯಾಗುತ್ತಲೇ ಇವೆ, ಮತ್ತು ಉದ್ಯಮದಲ್ಲಿನ ಅನೇಕರು ಡೀಪ್‌ಸೀಕ್‌ನ ಮಾದರಿಗೆ ಪ್ರಮುಖ ಅಪ್‌ಗ್ರೇಡ್‌ಗಾಗಿ ನಿಕಟವಾಗಿ ವೀಕ್ಷಿಸುತ್ತಿದ್ದಾರೆ.

ಕಳೆದ ವರ್ಷ, ಆಂಥ್ರೊಪಿಕ್ ತನ್ನ ಕ್ಲೌಡ್ ಚಾಟ್‌ಬಾಟ್ ಮಾದರಿಯನ್ನು ಬಳಸದಂತೆ ಚೈನೀಸ್-ನಿಯಂತ್ರಿತ ಕಂಪನಿಗಳನ್ನು ನಿರ್ಬಂಧಿಸಿತು ಮತ್ತು ಫೆಬ್ರವರಿಯಲ್ಲಿ, ಇದು ಮೂರು ಚೈನೀಸ್ AI ಲ್ಯಾಬ್‌ಗಳನ್ನು ಗುರುತಿಸಿತು – ಡೀಪ್‌ಸೀಕ್, ಮೂನ್‌ಶಾಟ್ ಮತ್ತು ಮಿನಿಮ್ಯಾಕ್ಸ್ – ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯ ಮೂಲಕ ಮಾದರಿಯ ಸಾಮರ್ಥ್ಯವನ್ನು ಅಕ್ರಮವಾಗಿ ಹೊರತೆಗೆಯುತ್ತಿದೆ. ಈ ವರ್ಷ, ಆಂಥ್ರೊಪಿಕ್ ಬೆದರಿಕೆಯು “ಯಾವುದೇ ಒಂದು ಕಂಪನಿ ಅಥವಾ ಪ್ರದೇಶವನ್ನು ಮೀರಿ ವಿಸ್ತರಿಸುತ್ತದೆ” ಮತ್ತು ರಾಷ್ಟ್ರೀಯ ಭದ್ರತೆಯ ಅಪಾಯವನ್ನು ಉಂಟುಮಾಡುತ್ತದೆ, ಏಕೆಂದರೆ ಬಟ್ಟಿ ಇಳಿಸಿದ ಮಾದರಿಗಳು ದುರುದ್ದೇಶಪೂರಿತ ಚಟುವಟಿಕೆಗಳಿಗೆ AI ಪರಿಕರಗಳನ್ನು ಬಳಸುವುದನ್ನು ತಡೆಯಲು ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ಸುರಕ್ಷತಾ ಗಾರ್ಡ್ರೈಲ್‌ಗಳನ್ನು ಹೊಂದಿರುವುದಿಲ್ಲ.

ಮಾದರಿ ಹೊರತೆಗೆಯುವ ಪ್ರಯತ್ನಗಳಲ್ಲಿ ಹೆಚ್ಚಳವನ್ನು ಗುರುತಿಸಿದೆ ಎಂದು ಗೂಗಲ್ ಬ್ಲಾಗ್ ಅನ್ನು ಪ್ರಕಟಿಸಿದೆ. ಮೂರು US AI ಲ್ಯಾಬ್‌ಗಳು ಚೀನಾದ ಮಾದರಿಯ ಆವಿಷ್ಕಾರವು ಬಟ್ಟಿ ಇಳಿಸುವಿಕೆಯ ಮೇಲೆ ಎಷ್ಟು ಅವಲಂಬಿತವಾಗಿದೆ ಎಂಬುದನ್ನು ತೋರಿಸುವ ಪುರಾವೆಗಳನ್ನು ಇನ್ನೂ ಒದಗಿಸಿಲ್ಲ, ಆದರೆ ದೊಡ್ಡ ಪ್ರಮಾಣದ ಡೇಟಾ ವಿನಂತಿಗಳ ಪರಿಮಾಣದ ಆಧಾರದ ಮೇಲೆ ದಾಳಿಗಳ ಹರಡುವಿಕೆಯನ್ನು ಅಳೆಯಬಹುದು ಎಂದು ಅವರು ಗಮನಿಸುತ್ತಾರೆ.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

TOP