ಕೇವಲ ಒಂದು ವರ್ಷದ ಹಿಂದೆ ನಾವು ಪ್ರಕಟಿಸುತ್ತೇವೆ LXA ನಲ್ಲಿ ಭ್ರಮೆಗಳ ಬಗ್ಗೆ ಒಂದು ಲೇಖನ ಇಲ್ಲಿದೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ. ಇದನ್ನು ನಾವು ಸಮಯ ವ್ಯರ್ಥ ಅಥವಾ ಸುಳ್ಳು ಮಾಹಿತಿಯೊಂದಿಗೆ ಬಿಡಬಹುದು ಎಂದು ಅರ್ಥಮಾಡಿಕೊಂಡರೆ ಅವು ಅಪಾಯಕಾರಿ. ನಾವು ಅವರನ್ನು ಏನಾದರೂ ಕೇಳಿದಾಗ, ಡೇಟಾಬೇಸ್ನಿಂದ ಅವರಿಗೆ ಬೇಗನೆ ಸಿಗುವುದಿಲ್ಲ, ಅವರು ಯಾವುದಕ್ಕೂ ಉತ್ತರಿಸಬಹುದು, ಮತ್ತು ಅದು 2025 ರಲ್ಲಿ ನನ್ನನ್ನು ಹೆಚ್ಚು ಉತ್ತಮಗೊಳಿಸಿಲ್ಲ, ನಾವು ಈಗಾಗಲೇ ಅದರಲ್ಲಿ ಚೆನ್ನಾಗಿ ತೊಡಗಿಸಿಕೊಂಡಿದ್ದೇವೆ.
ಇದು ಇತ್ತೀಚೆಗೆ ಜನಪ್ರಿಯವಾಗಿದೆ ಡೀಪ್ಸೀಕ್, ಚೀನಾದಿಂದ ನಮಗೆ ಬಂದಿರುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಮತ್ತು ಅದು ChatGPT ಯಂತೆಯೇ ಫಲಿತಾಂಶಗಳನ್ನು ನೀಡಬಹುದು ಅಥವಾ ಅವುಗಳನ್ನು ಸುಧಾರಿಸಬಹುದು. ಆದರೆ ನಾವು ಆಯ್ಕೆಗಳನ್ನು ಸಕ್ರಿಯಗೊಳಿಸಿದರೆ ಈ AI ಗಳಲ್ಲಿ ಅತ್ಯುತ್ತಮವಾದದ್ದನ್ನು ಪಡೆಯಲಾಗುತ್ತದೆ ಹೆಚ್ಚು ಆಳವಾಗಿ ಯೋಚಿಸಿ, ಕಾರಣ ಅಥವಾ ಅವರು ಪ್ರಶ್ನೆಯಲ್ಲಿರುವ ಮಾದರಿಯಲ್ಲಿ ಅದನ್ನು ಏನು ಕರೆದಿದ್ದಾರೆ. ಇಲ್ಲದಿದ್ದರೆ, ಅವರೆಲ್ಲರೂ ಒಂದೇ ವಿಷಯದಲ್ಲಿ ವಿಫಲರಾಗುತ್ತಾರೆ: ಅವರು ಹೇಳುವುದು ಸರಿಯೋ ಇಲ್ಲವೋ ಎಂಬುದನ್ನು ಲೆಕ್ಕಿಸದೆ ತ್ವರಿತವಾಗಿ ಪ್ರತಿಕ್ರಿಯಿಸುವುದು.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಹೊಸ ಭ್ರಮೆಗಳು
ಕಾಲಕಾಲಕ್ಕೆ, ನಾನು ಆಟವಾಡುತ್ತಾ ಸ್ವಲ್ಪ ಸಮಯ ಕಳೆಯುತ್ತೇನೆ ನನ್ನ ಸ್ಟೀಮ್ ಡೆಕ್. ನಾನು ಇತ್ತೀಚೆಗೆ ಬಾರ್ಡರ್ಲ್ಯಾಂಡ್ಸ್ ದಿ ಪ್ರಿಕ್ವೆಲ್ನ ಬೇಸ್ ಆಟವನ್ನು ಮುಗಿಸಿದೆ, ಮತ್ತು ನನಗೆ ಅಂತ್ಯ ಅರ್ಥವಾಗಲಿಲ್ಲ (ಸ್ಪಾಯ್ಲರ್ ಎಚ್ಚರಿಕೆ): ಲಿಲಿತ್ ಹ್ಯಾಂಡ್ಸಮ್ ಜ್ಯಾಕ್ಗೆ ಪಂಚ್ ಮಾಡುತ್ತಾನೆ... ಲಿಲಿತ್ ಎಲ್ಲಿಂದ ಬಂದಳು? ನಾನು ChatGPT ಯನ್ನು ಕೇಳಿದೆ, ಮತ್ತು ಅವನು ನನಗೆ ಏನು ಹೇಳಿದನೆಂದು ನನಗೆ ನೆನಪಿಲ್ಲ. ನನಗೆ ನೆನಪಿದ್ದರೆ, ನಾನು ನಮ್ಮ ಆಟಗಾರನನ್ನು ಅವನ ಅದೃಶ್ಯತೆಯಿಂದ ಬೆನ್ನಟ್ಟುತ್ತಿದ್ದೆ ಎಂದು ನನ್ನ ಸ್ವಂತ ಆರೋಪವನ್ನು ಕ್ಷಮಿಸಿ ಎಂದು ನನಗೆ ನೆನಪಾಯಿತು. ನಂತರ ನಾನು ಮುಂದುವರಿಸಿದೆ, ಹ್ಯಾಂಡ್ಸಮ್ ಜ್ಯಾಕ್ ಮುಖದ ಮೇಲೆ ಕೀಲುಗಳನ್ನು ಹೊಂದಿದ್ದನು ಮತ್ತು ಅದು ಮುಖವಾಡ ಎಂದು ಅವನಿಗೆ ನನಗೆ ಹೇಳಲು ಸಾಧ್ಯವಾಗಲಿಲ್ಲ.
ಆದರೆ ಕೆಟ್ಟದ್ದೆಂದರೆ, ಕ್ಲಾಪ್ಟ್ರಾಪ್ ವಾಯೇಜ್ ವಿಸ್ತರಣೆಯನ್ನು ಆಡಲು ನಾನು ಎಲ್ಲಿಗೆ ಹೋಗಬೇಕು ಎಂದು ನಾನು ಅವರನ್ನು ಕೇಳಿದಾಗ. ನೀವು ಇಲ್ಲಿ ಏನು ನೋಡುತ್ತೀರಿ, ಅಲ್ಲಿ ಏನು ನೋಡುತ್ತೀರಿ, ಏನು... ಇಂಟರ್ನೆಟ್ನಲ್ಲಿ ಹುಡುಕುತ್ತಿರುವಾಗ ನಾನು 13/2 ನೇ ಮಹಡಿಗೆ ಅಥವಾ ಅಂತಹದ್ದೇನಾದರೂ ಹೋಗಬೇಕೆಂದು ಕಂಡುಕೊಂಡೆ (ನನಗೆ ಈಗ ಹೆಸರು ನೆನಪಿಲ್ಲ), ನಾವು ಒಂದು ಸಣ್ಣ ಪ್ರವಾಸದಿಂದ ಮಾಡಬಹುದಾದದ್ದು.
ಈ ಲೇಖನಕ್ಕೆ ಹೆಚ್ಚಿನ ಆಧಾರವನ್ನು ನೀಡಲು, ನಾನು ChatGPT ಯನ್ನು ಅದೇ ವಿಷಯವನ್ನು ಕೇಳುವ ಬಗ್ಗೆ ಯೋಚಿಸಿದೆ, ಆದರೆ ತಾರ್ಕಿಕವಾಗಿ, ನಾನು DeepSeek ನಲ್ಲಿಯೂ ಮಾಡಿದ್ದೇನೆ. DeepSeek ಮೊದಲ ಪ್ರಯತ್ನದಲ್ಲೇ ಅದನ್ನು ಸರಿಯಾಗಿ ಮಾಡಿತು, ಆದರೆ ChatGPT ನನಗೆ ಎರಡು ಆಯ್ಕೆಗಳನ್ನು ನೀಡಿತು, ಒಂದು ಸರಿ ಮತ್ತು ಇನ್ನೊಂದು The Presequel ನಲ್ಲಿ Claptrap ಗೆ ಸಂಬಂಧಿಸಿದ ವಿಸ್ತರಣೆ ಇದೆ ಎಂದು ನಿರಾಕರಿಸಿತು. ಅದು ಸರಿಪಡಿಸುತ್ತದೆಯೇ ಎಂದು ನೋಡಲು ನಾನು ಆ ಆಯ್ಕೆಯನ್ನು ಆರಿಸಿಕೊಂಡೆ... ಆದರೆ ಇಲ್ಲ.
ನಿಮಗೆ ನಿಖರತೆ ಬೇಕೇ?
ChatGPT ಇದೀಗ ಅತ್ಯಂತ ಜನಪ್ರಿಯವಾಗಿದೆ ಮತ್ತು ಹೆಚ್ಚಿನ ಜನರು ಬಳಸುತ್ತಾರೆ. ಅದು ತರ್ಕಬದ್ಧವಾಗಬೇಕಾದರೆ, ನಾವು ಎರಡು ಸಮಸ್ಯೆಗಳನ್ನು ಎದುರಿಸಬೇಕಾಗುತ್ತದೆ: ಮೊದಲನೆಯದು ಉತ್ತರವನ್ನು ನೀಡಲು ಪ್ರಾರಂಭಿಸಲು 20-40 ಸೆಕೆಂಡುಗಳು ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ, ಮತ್ತು ಎರಡನೆಯದು ಉಚಿತ ತಾರ್ಕಿಕತೆಯು ದಿನಕ್ಕೆ ಕೆಲವು ಬಾರಿ ಮಾತ್ರ ಸಾಧ್ಯ; ಒಂದು ಮಿತಿಯನ್ನು ದಾಟಿದಾಗ, ಅವು ಇನ್ನು ಮುಂದೆ ಕೆಲಸ ಮಾಡುವುದಿಲ್ಲ ಮತ್ತು ನಾವು ಪಾವತಿಸಿದ ಮಾದರಿಯನ್ನು ಬಳಸಲು ಒತ್ತಾಯಿಸಲ್ಪಡುತ್ತೇವೆ. ಇದಲ್ಲದೆ, ಡೀಪ್ಸೀಕ್ ಅವನು ಯಾವಾಗಲೂ ತರ್ಕಿಸಬಹುದು, ಆದರೆ ಕೆಲವೊಮ್ಮೆ ಅವನು ಸಿಕ್ಕಿಹಾಕಿಕೊಳ್ಳುತ್ತಾನೆ ಮತ್ತು ಕೆಲಸ ಮಾಡುವುದಿಲ್ಲ.
ಹಾಗಾಗಿ ನಾವು ಹಣ ಕೊಡುತ್ತೇವೆ, ಅಥವಾ ಕಾಯುತ್ತೇವೆ, ಅಥವಾ ನಮಗೆ ಅದೃಷ್ಟ ಬರುತ್ತದೆ.
ಹಾಗಿದ್ದರೂ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಬಗ್ಗೆ ಭ್ರಮೆಗಳು ಇನ್ನೂ ಸಾಮಾನ್ಯವಾಗಿದೆ, ಮತ್ತು ಅವರು ನಮಗೆ ನೀಡುವ ಮಾಹಿತಿಯನ್ನು ಯಾರಾದರೂ ಲಘುವಾಗಿ ತೆಗೆದುಕೊಳ್ಳದಂತೆ ತಡೆಯಲು ಇದನ್ನು ನೆನಪಿನಲ್ಲಿಟ್ಟುಕೊಳ್ಳುವುದು ಯೋಗ್ಯವಾಗಿದೆ ಎಂದು ನಾನು ಭಾವಿಸುತ್ತೇನೆ.
ನಾವು ಹುಡುಕಿದರೆ ಏನು?
ಡೀಫಾಲ್ಟ್ ಮಾದರಿಯು ನಮಗೆ ಪ್ರತಿಕ್ರಿಯಿಸಲು ಬಿಡದಿರುವುದು ಯೋಗ್ಯವಾಗಿರುತ್ತದೆ. ಅವನು ಹೆಚ್ಚು ವಿಫಲನಾಗುವವನು, ಅತ್ಯಂತ "ಕುನಾವೋ", ಅಂದರೆ, ಉತ್ತರ ಗೊತ್ತಿದೆಯೋ ಇಲ್ಲವೋ ಎಂದು ಉತ್ತರಿಸುವ ಸಲುವಾಗಿ ಹೆಚ್ಚು ಉತ್ತರಿಸುವವನು. ಈ ಮಾದರಿಗಳು ತಾವು ಕಲಿತದ್ದರ ಬಗ್ಗೆ ಉತ್ತರಗಳನ್ನು ನೀಡುತ್ತವೆ, ಮತ್ತು ಅವರು ಅದನ್ನು ಕಲಿಯದಿದ್ದರೆ, ಸಾಮಾನ್ಯವಾಗಿ ಉತ್ತಮ ಫಲಿತಾಂಶಗಳನ್ನು ನೀಡದ ಸಂಬಂಧಗಳನ್ನು ಸೃಷ್ಟಿಸುವ ಮೂಲಕ ನಮ್ಮ ಅನುಮಾನಗಳನ್ನು ಪರಿಹರಿಸಲು ಪ್ರಯತ್ನಿಸುತ್ತವೆ. ನಾವು ಒತ್ತಿದರೆ ವಿಷಯಗಳು ಬದಲಾಗುತ್ತವೆ ಹುಡುಕಾಟ ಅಥವಾ ತಾರ್ಕಿಕ ಬಟನ್ಗಳು.
ನಾವು ಅವನನ್ನು ಹುಡುಕಲು ಹೇಳಿದರೆ, ಅವನು ಅದನ್ನೇ ಮಾಡುತ್ತಾನೆ. ಅದು ಏನನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತದೆ ಎಂಬುದನ್ನು ವಿಶ್ಲೇಷಿಸುತ್ತದೆ ಮತ್ತು ನಾವು ಮಾಡುವ ಹುಡುಕಾಟದ ಸಾರಾಂಶವಾಗಿ ನೋಡಬಹುದಾದ ಫಲಿತಾಂಶವನ್ನು ನಮಗೆ ತೋರಿಸುತ್ತದೆ. ತರ್ಕಿಸುವ ಆಯ್ಕೆಯು ಮನಸ್ಸಿಗೆ ಬರುವ ಮೊದಲ ಅಸಂಬದ್ಧತೆಯನ್ನು ಹೇಳದಂತೆ ನಿಮ್ಮನ್ನು ತಡೆಯುತ್ತದೆ, ಆದರೂ ಕೆಲವೊಮ್ಮೆ ChatGPT ವಿಷಯಗಳನ್ನು ಇನ್ನಷ್ಟು ಹದಗೆಡಿಸಲು ಕಾರಣವಾಗುತ್ತದೆ.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸುಧಾರಿಸುತ್ತಲೇ ಇದೆ, ಆದರೆ ನಾವು ಅದನ್ನು ಚೆನ್ನಾಗಿ ಬಳಸಿಕೊಳ್ಳದಿದ್ದರೆ, ಅದು ನಮಗೆ ಸಹಾಯ ಮಾಡುವ ಬದಲು ನಮ್ಮನ್ನು ಗೊಂದಲಕ್ಕೀಡು ಮಾಡುತ್ತದೆ.