ඔයා කවදා හරි AI එකකින් මොකක් හරි ඇහුවම, ඒක හරිම විශ්වාසයෙන් පට්ටපල් බොරුවක් කියලා තියෙනවද? තාක්ෂණික ලෝකයේදී අපි මේකට කියන්නේ “AI Hallucination” කියලා. 2026 වුණත්, AI පාවිච්චි කරද්දී තියෙන ලොකුම ගැටලුවක් තමයි මේක.
මොකක්ද මේ AI Hallucination සීන් එක? ![]()
මේක තේරුම් ගන්න AI එක “හරිම විශ්වාසයෙන් බොරු කියන යාළුවෙක්” වගේ කියලා හිතන්න: ඔයාගේ ඉන්නවා හරිම බුද්ධිමත්, හැබැයි “මම ඕක දන්නේ නැහැ” කියලා කියන්න අකමැති යාළුවෙක්. ඔයා ඒ යාළුවාගෙන් දන්නේ නැති දෙයක් ඇහුවොත්, එයා ඒ වෙලාවේම හරිම ලස්සන කතාවක් ගොතලා, ඒක ඇත්තම වගේ ඔයාට කියනවා.
AI එක ඇත්තටම කරුණු “දන්නේ” නැහැ. ඒක කරන්නේ ඊළඟට එන්න ඕනේ වචනය මොකක්ද කියලා අනුමාන කරන එකයි. සමහර වෙලාවට ඒ අනුමානය වැරදුනත්, AI එක ඒක කියන්නේ 100%ක්ම ඒක ඇත්ත වගේමයි.
මේකෙන් වෙන්න පුළුවන් කරදර ![]()
නැති නීති පෙන්වීම: සමහර නීතිඥයෝ AI එකෙන් කරුණු හොයන්න ගිහින්, ලෝකේ කවදාවත් නොවුණු නඩු තීන්දු උසාවියට ඉදිරිපත් කරලා අමාරුවේ වැටුණු අවස්ථා තියෙනවා.
නැති Software Libraries: Coding කරද්දී AI එක සමහර වෙලාවට ලෝකේ නැති software commands පාවිච්චි කරන්න කියලා අපිට කියන්න පුළුවන්.
වැරදි ඉතිහාසය: පුද්ගලයෙක් ගැන ඇහුවම ඔහු නොලබපු සම්මාන ගැන හෝ සිදු නොවූ සිදුවීම් ගැන AI එක කියන්න පුළුවන්.
අපි මොකද කරන්නේ? ![]()
1. විශ්වාස කරන්න එපා (Double Check): වැදගත් දෙයක් (වෛද්ය, නීති හෝ කෝඩින්) AI එකෙන් ගත්තොත් ඒක අනිවාර්යයෙන්ම වෙනත් තැනකින් පරීක්ෂා කරලා බලන්න.
2. මූලාශ්ර ඉල්ලන්න: “ඔයා මේක ගත්තේ කොහෙන්ද? මට source එකක් දෙන්න” කියලා AI එකෙන් අහන්න.
3. Search පාවිච්චි කරන්න: දැන් තියෙන ගොඩක් AI වලට ඉන්ටර්නෙට් එක පාවිච්චි කරලා උත්තර දෙන්න පුළුවන්. ඒ වගේ search පහසුකම තියෙන AI එකක් පාවිච්චි කරන්න.
අමතක කරන්න එපා, AI එකට තියෙන්නේ ගණිතමය බුද්ධියක් මිසක්, මනුස්සයෙක්ට වගේ “සැබෑ අවබෝධයක්” නෙවෙයි!
උපුටා ගැනීම : මුහුණු පොත (The IT Clinic)
