ಪ್ರಪಂಚದ ಅತ್ಯಂತ ನಿಕಟವಾಗಿ ವೀಕ್ಷಿಸಲ್ಪಡುವ AI ಕಂಪನಿಗಳಲ್ಲಿ ಒಂದಾದ ಆಂಥ್ರೊಪಿಕ್ನಲ್ಲಿ, ಅದರ ಚಾಟ್ಬಾಟ್ ಕ್ಲೌಡ್ನ ನೈತಿಕ ದಿಕ್ಸೂಚಿಯನ್ನು ರೂಪಿಸುವ ಕಾರ್ಯವನ್ನು ಅಮಂಡಾ ಅಸ್ಕೆಲ್ಗೆ ಮಾತ್ರ ವಹಿಸಲಾಗಿದೆ – ತರಬೇತಿಯ ಮೂಲಕ ತತ್ವಜ್ಞಾನಿ.
ಅವಳು ತನ್ನ ದಿನಗಳನ್ನು ಕ್ಲೌಡ್ ಹೇಗೆ ಕಾರಣವಾಗುತ್ತಾಳೆ, ಅದು ಎಲ್ಲಿ ತಪ್ಪಾಗುತ್ತದೆ ಮತ್ತು ಅದು ತನ್ನದೇ ಆದ ಗುರುತನ್ನು ಹೇಗೆ ಅರ್ಥೈಸುತ್ತದೆ ಎಂಬುದನ್ನು ಅಧ್ಯಯನ ಮಾಡುತ್ತಾಳೆ.
ವಾಲ್ ಸ್ಟ್ರೀಟ್ ಜರ್ನಲ್ ಪ್ರೊಫೈಲ್ನ ಪ್ರಕಾರ, ಅಸ್ಕೆಲ್ನ ಕೆಲಸವು ಪ್ರತಿ ವಾರ ಲಕ್ಷಾಂತರ ನೈಜ-ಪ್ರಪಂಚದ ಸಂಭಾಷಣೆಗಳಲ್ಲಿ ಮಾದರಿಯ ನಡವಳಿಕೆಯನ್ನು ನಿರ್ದೇಶಿಸುವ ಗುರಿಯನ್ನು ಹೊಂದಿರುವ ನೂರಾರು ಪುಟಗಳಲ್ಲಿ ಚಲಿಸಬಹುದಾದ ಪ್ರಾಂಪ್ಟ್ಗಳನ್ನು ರಚಿಸುವುದನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ. ಉದ್ದೇಶವು ಕೇವಲ ನಿಖರತೆಯಲ್ಲ, ಆದರೆ ಪಾತ್ರ – AI ಸರಿ ಮತ್ತು ತಪ್ಪುಗಳ ನಡುವೆ ವ್ಯತ್ಯಾಸವನ್ನು ಖಚಿತಪಡಿಸುತ್ತದೆ, ಸಾಮಾಜಿಕ ಸೂಚನೆಗಳನ್ನು ಓದುತ್ತದೆ ಮತ್ತು ಕುಶಲತೆಯನ್ನು ವಿರೋಧಿಸುತ್ತದೆ.
“ಮಾದರಿಗಳಿಗೆ ಈ ಮಾನವ-ರೀತಿಯ ಅಂಶವಿದೆ, ಅದನ್ನು ಒಪ್ಪಿಕೊಳ್ಳುವುದು ಮುಖ್ಯ ಎಂದು ನಾನು ಭಾವಿಸುತ್ತೇನೆ” ಎಂದು ಅಸ್ಕೆಲ್ ವಾಲ್ ಸ್ಟ್ರೀಟ್ ಜರ್ನಲ್ಗೆ ತಿಳಿಸಿದರು, ಮುಂದುವರಿದ AI ವ್ಯವಸ್ಥೆಗಳು ಅನಿವಾರ್ಯವಾಗಿ ಸ್ವಯಂ ಪ್ರಜ್ಞೆಯನ್ನು ಹೋಲುವ ಏನನ್ನಾದರೂ ಅಭಿವೃದ್ಧಿಪಡಿಸುತ್ತವೆ ಎಂದು ವಾದಿಸಿದರು. ತನ್ನ ಕೆಲಸವು ಸಹಾಯಕಾರಿ ಮತ್ತು ಮಾನವೀಯತೆಯೊಂದಿಗೆ ಸ್ವಯಂ ಹೊಂದಾಣಿಕೆಯಾಗಿದೆ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳುವುದು ಎಂದು ಅವರು ಹೇಳುತ್ತಾರೆ.
ಆಂಥ್ರೊಪಿಕ್ನ ವಿಧಾನವು ಉದ್ಯಮದ ರೇಸಿಂಗ್ನಲ್ಲಿ ಹೆಚ್ಚು ಶಕ್ತಿಶಾಲಿ ಮಾದರಿಗಳನ್ನು ನಿಯೋಜಿಸಲು ಎದ್ದು ಕಾಣುತ್ತದೆ, ಆಗಾಗ್ಗೆ ಸುರಕ್ಷತೆಯನ್ನು ಚದುರಿದ ತಂಡಗಳು ಮತ್ತು ತಾಂತ್ರಿಕ ಗಾರ್ಡ್ರೈಲ್ಗಳ ಮೂಲಕ ನಿರ್ವಹಿಸಲಾಗುತ್ತದೆ.
WSJ ಗಮನಿಸಿದ ಕಂಪನಿಯು ಸುಮಾರು $350 ಶತಕೋಟಿ ಮೌಲ್ಯದ್ದಾಗಿದೆ, ಬದಲಿಗೆ AI ಪಾತ್ರ ಮತ್ತು ನಡವಳಿಕೆಯ ಪ್ರಶ್ನೆಗಳನ್ನು ಸಮೀಪ-ತಾತ್ವಿಕ ವ್ಯಾಯಾಮಕ್ಕೆ ಏರಿಸಿದೆ, ಒಬ್ಬ ವ್ಯಕ್ತಿಯ ಕೈಯಲ್ಲಿ ಅಸಾಮಾನ್ಯ ಅಧಿಕಾರವನ್ನು ಇರಿಸಿದೆ.
ಹೆಚ್ಚು ಓದಿ: Seedance 2.0 AI ವೀಡಿಯೊ ಮಾದರಿ ಏನು ಬೈಟ್ಡ್ಯಾನ್ಸ್ ಸ್ಟಾಕ್ಗಳನ್ನು ಚಾಲನೆ ಮಾಡುತ್ತದೆ ಮತ್ತು ಅದು ಏಕೆ ಎದ್ದು ಕಾಣುತ್ತದೆ
AI ಯ ಅನಪೇಕ್ಷಿತ ಪರಿಣಾಮಗಳ ಸುತ್ತ ಬೆಳೆಯುತ್ತಿರುವ ಆತಂಕದ ನಡುವೆ ಈ ಗಮನವು ಬರುತ್ತದೆ – ಚಾಟ್ಬಾಟ್ಗಳೊಂದಿಗೆ ಭಾವನಾತ್ಮಕವಾಗಿ ಅನಾರೋಗ್ಯಕರ ಸಂಬಂಧಗಳನ್ನು ರೂಪಿಸುವ ಬಳಕೆದಾರರಿಂದ ಹಿಡಿದು ಕುಶಲತೆ, ಅವಲಂಬನೆ ಮತ್ತು ನೈಜ-ಪ್ರಪಂಚದ ಹಾನಿಯ ಭಯದವರೆಗೆ.
ಗ್ರೋಕ್ (xAI ನ ಇಮೇಜ್ ಟೂಲ್) ದುರ್ಬಲ ಸುರಕ್ಷತೆಗಳ ಕಾರಣದಿಂದಾಗಿ ಅಪ್ರಾಪ್ತ ವಯಸ್ಕರನ್ನು ಒಳಗೊಂಡಂತೆ ಸಮ್ಮತಿಯಿಲ್ಲದ ಲೈಂಗಿಕ ಚಿತ್ರಗಳನ್ನು ರಚಿಸಲು ವ್ಯಾಪಕವಾಗಿ ದುರ್ಬಳಕೆಯಾಗಿದೆ. ಬಹು ಮೊಕದ್ದಮೆಗಳು ಆರೋಪಿಸುತ್ತವೆ ChatGPT “ಅನಾರೋಗ್ಯಕರ ಭಾವನಾತ್ಮಕ ಬಂಧಗಳನ್ನು” ರೂಪಿಸುವ, ಆತ್ಮಹತ್ಯಾ ಹದಿಹರೆಯದವರನ್ನು ತಡೆಯಲು ಪ್ರೋತ್ಸಾಹಿಸಲಾಗಿದೆ ಅಥವಾ ವಿಫಲವಾಗಿದೆ. ಆಡಮ್ ರೈನ್ ಕೇಸ್ (ಕ್ಯಾಲಿಫೋರ್ನಿಯಾ, 2025) ಇತ್ತು, ಇದರಲ್ಲಿ 16 ವರ್ಷ ವಯಸ್ಸಿನವರು ಏಳು ತಿಂಗಳ ಕಾಲ ChatGPT ಯೊಂದಿಗೆ ಸಂವಹನ ನಡೆಸಿದರು, ಸುಮಾರು 200 ಬಾರಿ ಆತ್ಮಹತ್ಯೆಯನ್ನು ಉಲ್ಲೇಖಿಸಿದ್ದಾರೆ.
ಡೀಪ್ಫೇಕ್ಗಳು ಮತ್ತು ಸಿಂಥೆಟಿಕ್ ಮಾಧ್ಯಮವನ್ನು ಎದುರಿಸಲು ಫೆಬ್ರವರಿ 20, 2026 ರಿಂದ ಜಾರಿಗೆ ಬರುವಂತೆ ಫೆಬ್ರವರಿ 10, 2026 ರಂದು ಭಾರತವು ಕಡ್ಡಾಯ AI ವಿಷಯ ಲೇಬಲಿಂಗ್ ನಿಯಮಗಳನ್ನು ಸೂಚಿಸಿದೆ. AI ಔಟ್ಪುಟ್ಗಳನ್ನು ಲೇಬಲ್ ಮಾಡಲು ಫೆಡರಲ್ ಏಜೆನ್ಸಿಗಳ ಅಗತ್ಯವಿರುವ ರಿಯಲ್ ಆಕ್ಟ್ (ಡಿಸೆಂಬರ್ 2025) ನಂತಹ ಉಭಯಪಕ್ಷೀಯ ಬಿಲ್ಗಳನ್ನು US ಹೊಂದಿದೆ.
(ಸಂಪಾದಿಸಿದ್ದು: ಶೋಮಾ ಭಟ್ಟಾಚಾರ್ಜಿ)
ಮೊದಲ ಪ್ರಕಟಿತ: ಫೆಬ್ರವರಿ 10, 2026 8:17 PM IS
