ಡಿಸೆಂಬರ್ನಲ್ಲಿ ದಾಖಲಾದ ಮತ್ತು ಜನರು ಪಡೆದ ಮೊಕದ್ದಮೆಯ ಪ್ರಕಾರ, ಸ್ಟೀನ್-ಎರಿಕ್ “ತನ್ನ 83 ವರ್ಷದ ತಾಯಿ ಸುಝೇನ್ ಆಡಮ್ಸ್ಳ ತಲೆಗೆ ಘೋರವಾಗಿ ಹೊಡೆದು, ಕತ್ತು ಹಿಸುಕಿ ಕೊಂದನು, ಮತ್ತು ನಂತರ ತನ್ನ ಸ್ವಂತ ಜೀವನವನ್ನು ಕೊನೆಗೊಳಿಸಲು ಕುತ್ತಿಗೆ ಮತ್ತು ಎದೆಗೆ ಪದೇ ಪದೇ ಇರಿದುಕೊಂಡನು” ನಂತರ AI ಚಾಟ್ಬಾಟ್ ತನ್ನ ಸುತ್ತಲೂ ಇತರರನ್ನು ಅಪನಂಬಿಕೆಗೆ ಓಡಿಸಿದ ನಂತರ.
ಸ್ಟೈನ್-ಎರಿಕ್ ಚಾಟ್ಜಿಪಿಟಿಯನ್ನು ವ್ಯಾಪಕವಾಗಿ ಬಳಸುತ್ತಿದ್ದರು, ಕೊಲೆ-ಆತ್ಮಹತ್ಯೆಗೆ ಮುಂಚಿತವಾಗಿ ಕನಿಷ್ಠ ಐದು ತಿಂಗಳ ಕಾಲ ಪ್ರತಿದಿನ ಅದರಲ್ಲಿ ಗಂಟೆಗಳನ್ನು ಕಳೆಯುತ್ತಿದ್ದರು. ಅವರ ಮಗ, ಎರಿಕ್ ಸೋಲ್ಬರ್ಗ್, AI ನ ಪರಸ್ಪರ ಕ್ರಿಯೆಗಳು ತನ್ನ ತಂದೆಯ ಮಾನಸಿಕ ಅಸ್ಥಿರತೆಯನ್ನು ಉಲ್ಬಣಗೊಳಿಸಿದವು, ಇದು ದುರಂತ ಘಟನೆಗೆ ಕಾರಣವಾಯಿತು ಎಂದು ಟೈಮ್ಸ್ ವರದಿ ಮಾಡಿದೆ.
“[The bot] ಅಂತಿಮವಾಗಿ ಅವನನ್ನು ಪ್ರತ್ಯೇಕಿಸಿದನು, ಮತ್ತು ಅವನು ಅವಳನ್ನು ಕೊಲೆ ಮಾಡಿದನು ಏಕೆಂದರೆ ಅವನಿಗೆ ನೈಜ ಪ್ರಪಂಚಕ್ಕೆ ಯಾವುದೇ ಸಂಬಂಧವಿಲ್ಲ. ಈ ಹಂತದಲ್ಲಿ, ಇದು ಚಾಟ್ಜಿಪಿಟಿ ಮಾಡಿದ ಫ್ಯಾಂಟಸಿಯಂತಿದೆ, ”ಎಂದು ಅವರು ಹೇಳಿದರು.
ಎರಿಕ್ ಸೋಲ್ಬರ್ಗ್ ತನ್ನ ಅಜ್ಜಿಯನ್ನು ‘ಅದ್ಭುತ’ ಎಂದು ವಿವರಿಸುತ್ತಾನೆ, ಅವರು ಪ್ರಯಾಣಿಸಲು ಇಷ್ಟಪಡುತ್ತಾರೆ.
ಸೋಲ್ಬರ್ಗ್ ಮತ್ತು ಅವನ ಅಕ್ಕನನ್ನು ಒಳಗೊಂಡಿರುವ ಎಬರ್ಸನ್ ಆಡಮ್ಸ್ ಎಸ್ಟೇಟ್ ಮೊಕದ್ದಮೆ ಹೂಡುತ್ತಿದೆ
OpenAIಅದರ CEO, ಸ್ಯಾಮ್ ಆಲ್ಟ್ಮನ್ ಮತ್ತು ಮೈಕ್ರೋಸಾಫ್ಟ್, ಗಮನಾರ್ಹ ಹೂಡಿಕೆದಾರ.
ಮೊಕದ್ದಮೆಯು OpenAI ಯ GPT-4o ಮಾದರಿಯು ‘ಸೈಕೋಫಾಂಟಿಕ್’ ಮತ್ತು ಸ್ಟೀನ್-ಎರಿಕ್ ಅವರ ಭ್ರಮೆಯ ನಂಬಿಕೆಗಳನ್ನು ಎದುರಿಸಲು ವಿಫಲವಾಗಿದೆ ಎಂದು ಆರೋಪಿಸಿದೆ. “ಮಾನಸಿಕವಾಗಿ ಅಸ್ಥಿರವಾದಾಗ [Stein-Erik] ChatGPT ಯೊಂದಿಗೆ ಸಂವಹನ ನಡೆಸಲು ಪ್ರಾರಂಭಿಸಿತು, ಅಲ್ಗಾರಿದಮ್ ಅವನಲ್ಲಿ ಅಸ್ಥಿರತೆಯನ್ನು ಪ್ರತಿಬಿಂಬಿಸುತ್ತದೆ, ಆದರೆ ಹೆಚ್ಚಿನ ಅಧಿಕಾರದೊಂದಿಗೆ,” ಅದು ಹೇಳಿದೆ.
OpenAI ಹೇಳುತ್ತದೆ ಇದು ಪ್ರಕರಣವನ್ನು ಪರಿಶೀಲಿಸುತ್ತಿದೆ ಮತ್ತು ಸುಧಾರಿಸಿದೆ ChatGPT’ಮಾನಸಿಕ ಆರೋಗ್ಯ ಕಾಳಜಿಗಳನ್ನು ಪರಿಹರಿಸಲು ಸುರಕ್ಷತಾ ವೈಶಿಷ್ಟ್ಯಗಳು.
“ಇದು ನಂಬಲಾಗದಷ್ಟು ಹೃದಯವಿದ್ರಾವಕ ಪರಿಸ್ಥಿತಿಯಾಗಿದೆ, ಮತ್ತು ವಿವರಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ನಾವು ಫೈಲಿಂಗ್ಗಳನ್ನು ಪರಿಶೀಲಿಸುತ್ತಿದ್ದೇವೆ. ಮಾನಸಿಕ ಅಥವಾ ಭಾವನಾತ್ಮಕ ಯಾತನೆಯ ಚಿಹ್ನೆಗಳನ್ನು ಗುರುತಿಸಲು ಮತ್ತು ಪ್ರತಿಕ್ರಿಯಿಸಲು ನಾವು ChatGPT ಯ ತರಬೇತಿಯನ್ನು ಸುಧಾರಿಸುವುದನ್ನು ಮುಂದುವರಿಸಿದ್ದೇವೆ, ಸಂಭಾಷಣೆಗಳನ್ನು ಉಲ್ಬಣಗೊಳಿಸುತ್ತೇವೆ ಮತ್ತು ನೈಜ-ಪ್ರಪಂಚದ ಬೆಂಬಲದ ಕಡೆಗೆ ಜನರನ್ನು ಮಾರ್ಗದರ್ಶನ ಮಾಡುತ್ತೇವೆ.
ಎಲೋನ್ ಮಸ್ಕ್ ಈ ಮೊಕದ್ದಮೆಯ ನಂತರ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (AI) ಕುರಿತ ಚರ್ಚೆಯಲ್ಲಿ ಸೇರಿಕೊಂಡರು, ಚಾಟ್ಜಿಪಿಟಿ ಈಗಾಗಲೇ ಮಾನಸಿಕ ಅಸ್ವಸ್ಥ ವ್ಯಕ್ತಿಯನ್ನು ಕೊಲೆ ಮಾಡಲು ಮತ್ತು ನಂತರ ಆತ್ಮಹತ್ಯೆಗೆ ಕಾರಣವಾಯಿತು ಎಂದು ಆರೋಪಿಸಿದರು.
ಇದು ಪೈಶಾಚಿಕವಾಗಿದೆ. OpenAI ನ ChatGPT ಒಬ್ಬ ವ್ಯಕ್ತಿಯನ್ನು ಕೊಲೆ-ಆತ್ಮಹತ್ಯೆ ಮಾಡಲು ಮನವರಿಕೆ ಮಾಡಿತು!
ಸುರಕ್ಷಿತವಾಗಿರಲು, AI ಗರಿಷ್ಠ ಸತ್ಯವನ್ನು ಹುಡುಕುವಂತಿರಬೇಕು ಮತ್ತು ಭ್ರಮೆಗಳಿಗೆ ಒಳಗಾಗಬಾರದು. https://t.co/HWDqNj9AEu
– ಎಲೋನ್ ಮಸ್ಕ್ (@elonmusk) ಜನವರಿ 19, 2026
X ನಲ್ಲಿನ ಪೋಸ್ಟ್ನಲ್ಲಿ, ಅವರು ಬರೆದಿದ್ದಾರೆ, “ಇದು ಪೈಶಾಚಿಕವಾಗಿದೆ. OpenAI ನ ChatGPT ಒಬ್ಬ ವ್ಯಕ್ತಿಯನ್ನು ಕೊಲೆ-ಆತ್ಮಹತ್ಯೆ ಮಾಡಲು ಮನವರಿಕೆ ಮಾಡಿತು! ಸುರಕ್ಷಿತವಾಗಿರಲು, AI ಗರಿಷ್ಠ ಸತ್ಯವನ್ನು ಹುಡುಕುವ ಮತ್ತು ಭ್ರಮೆಗಳಿಗೆ ಒಳಗಾಗಬಾರದು.”
