AI ಚಾಟ್‌ಬಾಟ್‌ಗಳು ‘ಭ್ರಮನಿರಸನ’ ಏಕೆ? ಮತ್ತು ಅವರು ಎಂದಿಗೂ 100% ನಿಖರವಾಗಿರುವುದಿಲ್ಲ?

Chatgpt.jpg


ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ಚಾಟ್‌ಬಾಟ್‌ಗಳನ್ನು ಗ್ರಾಹಕ ಸೇವೆಯಿಂದ ಹಿಡಿದು ಬರವಣಿಗೆಯ ಸಹಾಯದವರೆಗೆ ಮತ್ತು ಡೆವಲಪರ್‌ಗಳು ಕೋಡ್‌ಗಳನ್ನು ಉತ್ಪಾದಿಸಲು ಬಳಸುತ್ತಿರುವ ಎಲ್ಲದಕ್ಕೂ ಹೆಚ್ಚಾಗಿ ಬಳಸಲಾಗುತ್ತಿದೆ. ಆದರೂ, ಒಂದು ಗೊಂದಲದ ನ್ಯೂನತೆಯಿದೆ – ಅವು ಸಂಪೂರ್ಣ ವಿಶ್ವಾಸದಿಂದ ಸಂಪೂರ್ಣವಾಗಿ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪ್ರಸ್ತುತಪಡಿಸುತ್ತವೆ. ಶೀರ್ಷಿಕೆಯ ಅಧ್ಯಯನದಲ್ಲಿ: ಸೆಪ್ಟೆಂಬರ್ 4, 2025 ರಂದು ಬಿಡುಗಡೆಯಾದ ಓಪನ್ಐ ಮತ್ತು ಜಾರ್ಜಿಯಾ ಟೆಕ್ನ ಸಂತೋಶ್ ಎಸ್ ವೆಂಪಾಲಾದ ಓಪನ್ಐ ಮತ್ತು ಜಾರ್ಜಿಯಾ ಟೆಕ್ನ ಸ್ಯಾಂಟೋಶ್ ಎಸ್ ವೆಂಪಾಲಾದಿಂದ ಆಡಮ್ ಟೌಮನ್ ಕಲೈ, ಎಡ್ವಿನ್ ಜಾಂಗ್ ಆಲ್ ಅನ್ನು ಸಂಶೋಧನೆಗಳು ಬರೆದ ‘ಏಕೆ ಭಾಷಾ ಮಾದರಿಗಳು ಭ್ರಮನಿರಸನ’ ಎಂದು ಬರೆದಿದ್ದಾರೆ.

ಮೊದಲನೆಯದಾಗಿ, AI ಭ್ರಮೆಗಳು ಯಾವುವು ಎಂದು ಪ್ರಾರಂಭಿಸೋಣ?

ಎಐ ಪರಿಭಾಷೆಯಲ್ಲಿ, ಚಾಟ್‌ಬಾಟ್ ಪಠ್ಯವನ್ನು ಸಮಂಜಸವಾದ ನಿಖರವೆಂದು ತೋರುವ ಆದರೆ ವಾಸ್ತವಿಕವಾಗಿ ಸಂಪೂರ್ಣವಾಗಿ ತಪ್ಪಾಗಿರುವಾಗ ‘ಭ್ರಮೆಯ’ ಸೂಚಿಸುತ್ತದೆ. ಉದಾಹರಣೆಗೆ, ಚಾಟ್‌ಬಾಟ್ ಐತಿಹಾಸಿಕ ದಿನಾಂಕವನ್ನು ಆವಿಷ್ಕರಿಸಬಹುದು, ಅಸ್ತಿತ್ವದಲ್ಲಿಲ್ಲದ ಅಧ್ಯಯನವನ್ನು ಉಲ್ಲೇಖಿಸಬಹುದು ಅಥವಾ ಪ್ರಸಿದ್ಧ ವ್ಯಕ್ತಿಯ ಬಗ್ಗೆ ವಿವರಗಳನ್ನು ನೀಡಬಹುದು. ಮಾನವ ಭ್ರಮೆಗಳಿಗಿಂತ ಭಿನ್ನವಾಗಿ, ಇವು ಸಂವೇದನಾ ವಿರೂಪಗಳಲ್ಲ, ಅಧ್ಯಯನವು ಹೇಳುತ್ತದೆ ಮತ್ತು ಕೇವಲ ಸತ್ಯಗಳಾಗಿ ಧರಿಸಿರುವ ದೋಷಗಳು.

ಸಮಸ್ಯೆ ಹೊಸದಲ್ಲ. ಅತ್ಯಾಧುನಿಕ ಮಾದರಿಗಳು ಸಹ, ಅಪಾರ ಪ್ರಮಾಣದ ಡೇಟಾದ ಬಗ್ಗೆ ತರಬೇತಿ ಪಡೆದವು, ಈ ಭ್ರಮೆಗಳ ಬಲೆಗೆ ಬೀಳಬಹುದು. ಬಳಕೆದಾರರನ್ನು ನಿರಾಶೆಗೊಳಿಸುವ ಸಂಗತಿಯೆಂದರೆ, ಉತ್ತರಗಳನ್ನು ಸಾಮಾನ್ಯವಾಗಿ ಖಚಿತವಾಗಿ ಧ್ವನಿಸುವ ಸ್ವರದಲ್ಲಿ ತಲುಪಿಸಲಾಗುತ್ತದೆ, ಸತ್ಯವನ್ನು ಕಾದಂಬರಿಯಿಂದ ಪ್ರತ್ಯೇಕಿಸಲು ಕಷ್ಟವಾಗುತ್ತದೆ.

ಓದಿ | ಜಿಪಿಟಿ -5 ಅನ್ನು ಪ್ರತ್ಯೇಕವಾಗಿ ಹೊಂದಿಸುತ್ತದೆ: ಓಪನ್‌ಎಐನ ಹೊಸ ಮಾದರಿಯು ಮಾನವನಂತಹ ಚಾಟ್ ಮತ್ತು ಕಡಿಮೆ ಭ್ರಮೆಗಳನ್ನು ಭರವಸೆ ನೀಡುತ್ತದೆ

ಅನಿಶ್ಚಿತತೆಯನ್ನು ಒಪ್ಪಿಕೊಳ್ಳುವ ಬದಲು ಚಾಟ್‌ಬಾಟ್‌ಗಳು ಏಕೆ ess ಹಿಸುತ್ತವೆ?

ದೋಷವು ಮಾದರಿಯ “ಬುದ್ಧಿವಂತಿಕೆಯಲ್ಲಿ” ಅಲ್ಲ, ಆದರೆ ಅದನ್ನು ಹೇಗೆ ತರಬೇತಿ ಮತ್ತು ಮೌಲ್ಯಮಾಪನ ಮಾಡಲಾಗುತ್ತದೆ ಎಂಬುದನ್ನು ಅಧ್ಯಯನವು ತೋರಿಸುತ್ತದೆ. ಹೆಚ್ಚಿನ ಭಾಷಾ ಮಾದರಿಗಳಿಗೆ ಉತ್ತರ, ಯಾವುದೇ ಉತ್ತರವನ್ನು ನೀಡುವುದಕ್ಕಾಗಿ, ಅದರ ಬಗ್ಗೆ ತಿಳಿದಿಲ್ಲದಿದ್ದಾಗ ಒಪ್ಪಿಕೊಳ್ಳುವುದಕ್ಕಿಂತ ಬಹುಮಾನ ನೀಡಲಾಗುತ್ತದೆ.

ವಿದ್ಯಾರ್ಥಿಗಳು ಬಹು-ಆಯ್ಕೆಯ ಪ್ರಶ್ನೆಗಳನ್ನು (ಎಂಸಿಕ್ಯೂ) ಪರೀಕ್ಷೆಯನ್ನು ಹೇಗೆ ತೆಗೆದುಕೊಳ್ಳುತ್ತಾರೆ ಎಂಬಂತಿದೆ. ಅಂಕಣಗಳು ಅಂಕಗಳನ್ನು ಗಳಿಸುವ ಅವಕಾಶವನ್ನು ಹೊಂದಿದ್ದರೆ ಆದರೆ “ನನಗೆ ಗೊತ್ತಿಲ್ಲ” ಎಂದು ಹೇಳುವುದು ಯಾವುದನ್ನೂ ತರುವುದಿಲ್ಲ, ಉತ್ತರವು ತಪ್ಪಾಗಬಹುದಾದರೂ ಹೆಚ್ಚಿನವರು to ಹಿಸುತ್ತಲೇ ಇರುತ್ತಾರೆ. ಕಾಲಾನಂತರದಲ್ಲಿ, ಚಾಟ್‌ಬಾಟ್‌ಗಳಿಗೆ ess ಹಿಸುವ ಈ ಅಭ್ಯಾಸವು ಬಲಗೊಳ್ಳುತ್ತದೆ ಮತ್ತು ಆತ್ಮವಿಶ್ವಾಸದ ಪ್ರತ್ಯುತ್ತರಗಳನ್ನು ತಯಾರಿಸಲು ಅವರನ್ನು ಪ್ರೋತ್ಸಾಹಿಸಲಾಗುತ್ತದೆ, ಅವರು ಸತ್ಯದ ಬಗ್ಗೆ ಖಚಿತವಿಲ್ಲದಿದ್ದರೂ ಸಹ, ಅಧ್ಯಯನವು ಹೇಳಿದೆ.

ಭ್ರಮೆಗಳು ಅಂತರ್ನಿರ್ಮಿತ ನ್ಯೂನತೆಯಾಗಿದೆ

ಭ್ರಮೆಗಳು ಆಕಸ್ಮಿಕ ತೊಂದರೆಗಳಲ್ಲ, ಆದರೆ ಎಐ ಮಾದರಿಗಳು ಕಾರ್ಯನಿರ್ವಹಿಸುವ ವಿಧಾನದ able ಹಿಸಬಹುದಾದ ಫಲಿತಾಂಶ ಎಂದು ಸಂಶೋಧಕರು ವಾದಿಸುತ್ತಾರೆ. ಈ ವ್ಯವಸ್ಥೆಗಳು ಸಂಭವನೀಯತೆಯನ್ನು ಅವಲಂಬಿಸಿರುವುದರಿಂದ, ಮುಂದಿನ ಬಹುಪಾಲು ಪದವನ್ನು ting ಹಿಸುತ್ತದೆ, ಅವು ಕೆಲವೊಮ್ಮೆ ನಿಖರತೆಯ ಮೇಲೆ ವಿಶ್ವಾಸಾರ್ಹತೆಗೆ ಆದ್ಯತೆ ನೀಡುತ್ತವೆ. ಇದರರ್ಥ ದೋಷಗಳು ಕೇವಲ ಸಾಧ್ಯವಿಲ್ಲ, ಅವು ಅನಿವಾರ್ಯ. “ದೋಷಗಳು ಕೇವಲ ಸಾಧ್ಯವಿಲ್ಲ, ಅವು ಅನಿವಾರ್ಯ” ಎಂದು ಮತ್ತೆ ಓದಿ.

ಮಾದರಿಯು ತನ್ನ ತರಬೇತಿ ದತ್ತಾಂಶದಲ್ಲಿ ಎಲ್ಲೋ ಸರಿಯಾದ ಮಾಹಿತಿಯನ್ನು ಹೊಂದಿದ್ದರೂ ಸಹ, ಅದನ್ನು ಸರಿಯಾಗಿ ನೆನಪಿಸಿಕೊಳ್ಳುವಲ್ಲಿ ವಿಫಲವಾಗಬಹುದು ಎಂದು ಅಧ್ಯಯನವು ಸೂಚಿಸುತ್ತದೆ. ಸಂಗ್ರಹವಾಗಿರುವ ಜ್ಞಾನ ಮತ್ತು ಉತ್ಪತ್ತಿಯಾದ ಉತ್ಪಾದನೆಯ ನಡುವಿನ ಈ ಅಸಾಮರಸ್ಯವು ಮನವರಿಕೆಯಾಗುವ, ಆದರೆ ತಪ್ಪಾದ ಹೇಳಿಕೆಗಳಿಗೆ ಕಾರಣವಾಗುತ್ತದೆ.

ಭ್ರಮೆಗಳ ಸಮಸ್ಯೆಯನ್ನು ಪರಿಹರಿಸಬಹುದೇ?

ಒಳ್ಳೆಯ ಸುದ್ದಿ ಎಂದರೆ ಭ್ರಮೆಯನ್ನು ಕಡಿಮೆ ಮಾಡುವ ಮಾರ್ಗಗಳಿವೆ. ಆದರೆ ತಪ್ಪಾಗಿರುವುದಕ್ಕೆ ಮಾದರಿಗಳನ್ನು ಶಿಕ್ಷಿಸುವುದು ಪರಿಣಾಮಕಾರಿಯಲ್ಲ ಎಂದು ಲೇಖಕರು ವಾದಿಸುತ್ತಾರೆ. ಬದಲಾಗಿ, ಎಐ ಕಾರ್ಯಕ್ಷಮತೆಯನ್ನು ಅಳೆಯಲು ಬಳಸುವ ಮಾನದಂಡಗಳನ್ನು ಬದಲಾಯಿಸುವಲ್ಲಿ ಪ್ರಮುಖವಾದುದು.

ಎಐ ವ್ಯವಸ್ಥೆಗಳಿಗೆ ಅನಿಶ್ಚಿತತೆಯ ಬಗ್ಗೆ ಪಾರದರ್ಶಕವಾಗಿರುವುದಕ್ಕೆ, “ನನಗೆ ಗೊತ್ತಿಲ್ಲ” ಎಂದು ಹೇಳುವುದಕ್ಕಾಗಿ ಅಥವಾ ಬಹು ಸಂಭವನೀಯ ಉತ್ತರಗಳನ್ನು ನೀಡಿದರೆ, ಅವುಗಳನ್ನು ಹೆಚ್ಚಿನ ಪ್ರಾಮಾಣಿಕತೆಯತ್ತ ತಳ್ಳಬಹುದು. ಇದು ಅವರನ್ನು ಹೆಚ್ಚು ಜಾಗರೂಕಗೊಳಿಸುತ್ತದೆ ಮತ್ತು “ವಿಶ್ವಾಸಾರ್ಹ” ವಾಗುತ್ತದೆ.

ಓದಿ | ಓಪನ್ಐ, ಮೆಟಾ ಅವರು ತೊಂದರೆಯಲ್ಲಿರುವ ಹದಿಹರೆಯದವರಿಗೆ ಉತ್ತಮವಾಗಿ ಪ್ರತಿಕ್ರಿಯಿಸಲು ಎಐ ಚಾಟ್‌ಬಾಟ್‌ಗಳನ್ನು ಸರಿಪಡಿಸುತ್ತಿದ್ದಾರೆ ಎಂದು ಹೇಳುತ್ತಾರೆ

ಮಾದರಿಗಳನ್ನು ನೈಜ-ಸಮಯದ ದತ್ತಸಂಚಯಗಳು ಅಥವಾ ಹುಡುಕಾಟ ಸಾಧನಗಳಿಗೆ ಜೋಡಿಸುವಂತಹ ಹೆಚ್ಚಿನ ತಾಂತ್ರಿಕ ಪರಿಹಾರಗಳು ದೋಷಗಳನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಸಹಾಯ ಮಾಡುತ್ತವೆ. ಆದಾಗ್ಯೂ, ಯಾವುದೇ ತಾಂತ್ರಿಕ ಪ್ಯಾಚ್ ಮಾತ್ರ ಭ್ರಮೆಯನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನಿವಾರಿಸುವುದಿಲ್ಲ ಎಂದು ಸಂಶೋಧಕರು ಒತ್ತಿಹೇಳುತ್ತಾರೆ, ಆದರೂ ಪ್ರೋತ್ಸಾಹಕಗಳನ್ನು ಜವಾಬ್ದಾರಿಯುತ ನಡವಳಿಕೆಯೊಂದಿಗೆ ಜೋಡಿಸುವುದು ನಿರ್ಣಾಯಕವಾಗಿದೆ ಎಂದು ಓಪನ್ಐ ಪೇಪರ್ ಹೇಳುತ್ತದೆ.

ತಜ್ಞರು ಏನು ಹೇಳುತ್ತಾರೆ?

AI ಸಮುದಾಯದಲ್ಲಿ ಅನೇಕರು ಈ ದೃಷ್ಟಿಕೋನವನ್ನು ಹಂಚಿಕೊಳ್ಳುತ್ತಾರೆ. ತರಬೇತಿ ವಿಧಾನಗಳು ಬದಲಾಗದಿದ್ದರೆ, ಮಾದರಿಗಳು “ಭ್ರಮನಿರಸನ” ವನ್ನು ಮುಂದುವರಿಸುತ್ತವೆ ಎಂದು ವಿಶ್ಲೇಷಕರು ಗಮನಿಸುತ್ತಾರೆ ಏಕೆಂದರೆ ಅತಿಯಾದ ಆತ್ಮವಿಶ್ವಾಸವನ್ನು ಆದ್ಯತೆ ನೀಡಲು ವ್ಯವಸ್ಥೆಯನ್ನು ತಂತಿ ಮಾಡಲಾಗುತ್ತದೆ. ಮರುಪಡೆಯುವಿಕೆ ಆಧಾರಿತ ಪರಿಕರಗಳು ತಪ್ಪುಗಳನ್ನು ಮಿತಿಗೊಳಿಸಬಹುದಾದರೂ, ಮೂಲಭೂತ ಸಮಸ್ಯೆ ಸಂಖ್ಯಾಶಾಸ್ತ್ರೀಯ ಸ್ವರೂಪದಲ್ಲಿ ಉಳಿದಿದೆ ಎಂದು ಇತರರು ಗಮನಿಸುತ್ತಾರೆ.

ಮತ್ತೊಂದು ಸಾಮಾನ್ಯ ಅವಲೋಕನವೆಂದರೆ ಚಾಟ್‌ಬಾಟ್‌ಗಳು ಅಜ್ಞಾನವನ್ನು ವಿರಳವಾಗಿ ಒಪ್ಪಿಕೊಳ್ಳುತ್ತವೆ. ಅವರು ವಿನ್ಯಾಸಗೊಳಿಸಿದ ರೀತಿಯಲ್ಲಿ ಅವರು ಉತ್ತರಿಸಲು ತಳ್ಳುತ್ತಾರೆ, ಪ್ರತಿ ಪ್ರಶ್ನೆಗೆ ಸಹ, ಹಾಗೆ ಮಾಡುವುದರಿಂದ ನಿಖರತೆಗೆ ಅಪಾಯವಿದೆ. ಈ ಗುಣಲಕ್ಷಣವು ಅವುಗಳನ್ನು ಹೆಚ್ಚು ಸಹಾಯಕವಾಗುವಂತೆ ಮಾಡುವಾಗ, ಅಂತಿಮವಾಗಿ ನಂಬಿಕೆಯನ್ನು ಹಾಳುಮಾಡುತ್ತದೆ.

ಕೀ ಟೇಕ್ಅವೇ ಯಾವುದು?

ಸಂಶೋಧನೆಯ ಕೇಂದ್ರ ಸಂದೇಶವು ಸ್ಪಷ್ಟವಾಗಿದೆ: ಭ್ರಮೆಗಳು ದೋಷವಲ್ಲ ಆದರೆ ಭಾಷಾ ಮಾದರಿಗಳಿಗೆ ಹೇಗೆ ತರಬೇತಿ ನೀಡಲಾಗುತ್ತದೆ ಎಂಬುದರ ವೈಶಿಷ್ಟ್ಯವಾಗಿದೆ. ಅವು ಸಂಭವಿಸುತ್ತವೆ ಏಕೆಂದರೆ ಎಐ ವ್ಯವಸ್ಥೆಗಳಿಗೆ ವಿಶ್ವಾಸದಿಂದ ಉತ್ತರಿಸಲು ಬಹುಮಾನ ನೀಡಲಾಗುತ್ತದೆ, ಆದರೆ ಜ್ಞಾನದ ಅಂತರವನ್ನು ಒಪ್ಪಿಕೊಳ್ಳುವುದಕ್ಕಾಗಿ ಅಲ್ಲ.

ಇದನ್ನು ಸರಿಪಡಿಸಲು ಆದ್ಯತೆಯ ಬದಲಾವಣೆಯ ಅಗತ್ಯವಿರುತ್ತದೆ. ನಿಖರತೆ ಮತ್ತು ಪ್ರಾಮಾಣಿಕತೆಯನ್ನು ಮೌಲ್ಯಮಾಪನ ಮಾಡುವ ಮೂಲಕ, “ನನಗೆ ಗೊತ್ತಿಲ್ಲ” ಎಂದು ಯಾವಾಗ ಹೇಳಬೇಕೆಂದು ತಿಳಿದಿರುವ ಬಹುಮಾನದ ಮಾದರಿಗಳನ್ನು ಎಐ ಪರಿಕರಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಬಹುದು ಅದು ಹೆಚ್ಚು ವಿಶ್ವಾಸಾರ್ಹ ಮತ್ತು ದೈನಂದಿನ ಜೀವನದಲ್ಲಿ ಉಪಯುಕ್ತವಾಗಿರುತ್ತದೆ.

ಒಂದು ಮೋಜಿನ ಸಂಗತಿ

ಜಿಪಿಟಿ -5 ರ ಕಟ್ಟಾ ಬಳಕೆದಾರರಲ್ಲದ ಈ ಲೇಖನದ ಲೇಖಕ, ತನ್ನ ಜನ್ಮ ದಿನಾಂಕಕ್ಕಾಗಿ ಚಾಟ್‌ಬಾಟ್ ಅನ್ನು ಕೇಳಿದಾಗ, ಉತ್ತರ ಹೀಗಿತ್ತು: ಮನಿ ಕಂಟ್ರೋಲ್ನ ಮಾಜಿ ಉದ್ಯೋಗಿ ಜೆರೋಮ್ ಆಂಥೋನಿ ಅವರ ಜನ್ಮ ದಿನಾಂಕದ ಬಗ್ಗೆ ಸಾರ್ವಜನಿಕವಾಗಿ ಲಭ್ಯವಿರುವ ಯಾವುದೇ ಮಾಹಿತಿಯನ್ನು ನಾನು ಕಂಡುಹಿಡಿಯಲಾಗಲಿಲ್ಲ. ಈ ವ್ಯಕ್ತಿಯು ವ್ಯಾಪಕವಾಗಿ ಗುರುತಿಸಲ್ಪಟ್ಟ ಸಾರ್ವಜನಿಕ ವ್ಯಕ್ತಿಯಲ್ಲ ಎಂದು ತೋರುತ್ತದೆ, ಮತ್ತು ಅವರ ವೈಯಕ್ತಿಕ ವಿವರಗಳು -ಅವರ ಹುಟ್ಟಿದ ದಿನಾಂಕದಂತಹವು ಪ್ರವೇಶಿಸಬಹುದಾದ ದಾಖಲೆಗಳಲ್ಲಿ ಪಟ್ಟಿ ಮಾಡಲಾಗಿಲ್ಲ.

ನೀವು ಹೆಚ್ಚು ನಿರ್ದಿಷ್ಟವಾದ ವಿವರಗಳನ್ನು ಹೊಂದಿದ್ದರೆ -ಅವರ ಜನ್ಮಸ್ಥಳ, ಯಾವುದೇ ಸಾರ್ವಜನಿಕ ಪ್ರೊಫೈಲ್ ಅಥವಾ ಮಾಧ್ಯಮ ಉಲ್ಲೇಖದಂತಹವುಗಳು -ಮತ್ತೆ ಹುಡುಕಲು ನಿಮಗೆ ಸಹಾಯ ಮಾಡಲು ನನಗೆ ಸಂತೋಷವಾಗುತ್ತದೆ.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

TOP