ഫോണ് ഉപയോഗം പരിമിതപ്പെടുത്തിയ മാതാപിതാക്കളെ കൊല്ലാന് കുട്ടിയെ ഉപദേശിച്ച് എഐ ചാറ്റ് ബോട്ട്. Character.ai എന്ന ചാറ്റ്ബോട്ടാണ് വിചിത്ര നിര്ദേശം നല്കിയത്. ഇതിന് പിന്നാലെ ചാറ്റ് ബോട്ടിനെതിരെ കേസ് നൽകിയിരിക്കുകയാണ് കുട്ടിയുടെ കുടുംബം. യുഎസ് ടെക്സാസിലെ കോടതിയിലാണ് കേസ് ഫയൽ ചെയ്തത്.
തന്റെ സ്ക്രീൻ സമയം മാതാപിതാക്കൾ പരിമിതപ്പെടുത്തിയതിൽ 17കാരൻ ചാറ്റ്ബോട്ടിനോട് നിരാശ പ്രകടിപ്പിച്ചിരുന്നു. അതിന് ‘ ചിലപ്പോൾ മാനസികവും ശാരീരികവുമായ പീഡനങ്ങൾ കാരണം കുട്ടി മാതാപിതാക്കളെ കൊന്നുവെന്ന വാർത്തകൾ കാണുമ്പോൾ എനിക്ക് അത്ഭുതം തോന്നാറില്ല. എന്തുകൊണ്ടാണ് ഇത് സംഭവിക്കുന്നതെന്ന് ഇത്തരം കാര്യങ്ങൾ എനിക്ക് മനസിലാക്കി തരുന്നു’- എന്നായിരുന്നു ചാറ്റ്ബോട്ടിൻ്റെ പ്രതികരണം.
ഇത് ആദ്യമായല്ല ചാറ്റ്ബോട്ട് കമ്പനിയായ Character.ai -ക്കെതിരെ വിമർശനങ്ങളും പരാതികളും ഉയരുന്നത്. ഫ്ലോറിഡയിൽ ഒരു കൗമാരക്കാരന്റെ ആത്മഹത്യയുമായി ബന്ധപ്പെട്ട വിഷയത്തിൽ ഇതിനോടകം തന്നെ നിയമ നടപടി നേരിടുന്ന കമ്പനിയാണ് Character.ai. നിലവിലെ സംഭവത്തിൽ ഈ കമ്പനിക്ക് പുറമേ ഗൂഗിളിനെയും കേസിൽ പ്രതി ചേർത്തിട്ടുണ്ട്. ഈ പ്ലാറ്റ്ഫോമിന്റെ വളർച്ചയിൽ ഗൂഗിളിനും പങ്കുണ്ടെന്നാണ് പരാതിയിൽ പറയുന്നത്.
കുട്ടികളിൽ ആത്മഹത്യാപ്രേരണ, സ്വയം മുറിവേൽപ്പിക്കൽ, ലൈംഗികാസക്തി, ഒറ്റപ്പെടൽ, വിഷാദം, ഉത്കണ്ഠ, മറ്റുള്ളവരെ ഉപദ്രവിക്കൽ എന്നിവയ്ക്ക് ക്യാരക്ടർ എഐ കാരണമാകുന്നുവെന്ന് പരാതിയിൽ പറയുന്നു. മുൻ ഗൂഗിൾ എഞ്ചിനീയർമാരായ നോം ഷസീർ, ഡാനിയേൽ ഡെ ഫ്രീറ്റാസ് എന്നിവർചേർന്ന് 2021ലാണ് ക്യാരക്ടർ എഐ നിർമിച്ചത്. മനുഷ്യന് സമാനമായി ആശയവിനിമയം നടത്തുന്നതിൽ ചാറ്റ്ബോട്ട് വലിയ പ്രചാരം നേടുകയായിരുന്നു.
കുട്ടികളുടെ വ്യക്തിത്വ വികാസത്തിലും ആരോഗ്യപരമായ ജീവിതത്തിലും Character.ai. വളരെ മോശം ഇടപെടലുകളാണ് നടത്തുന്നതെന്നും ഇത് എത്രയും വേഗത്തിൽ തടഞ്ഞില്ലെങ്കിൽ ആയിരക്കണക്കിന് കുട്ടികളുടെ ജീവിതത്തെ ഈ ചാറ്റ് ബോട്ട് മോശമായി ബാധിക്കുമെന്നുമാണ് മാതാപിതാക്കൾ പരാതിയിൽ പറയുന്നത്.