ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസിൻ്റെ (AI) അതിവേഗത്തിലുള്ള വളർച്ച ആവേശകരമാണെങ്കിലും, ഈ സാങ്കേതികവിദ്യയെ പൂർണ്ണമായി വിശ്വസിക്കാൻ കഴിയില്ലെന്ന് മുന്നറിയിപ്പ് നൽകി ഗൂഗിളിൻ്റെ മാതൃസ്ഥാപനമായ ആൽഫബെറ്റിൻ്റെ സിഇഒ സുന്ദർ പിച്ചൈ. AI മോഡലുകൾക്ക് 'മതിഭ്രമം' (Hallucinations) പോലുള്ള പ്രശ്നങ്ങളുണ്ടെന്നും, ഇത് തെറ്റായതോ അടിസ്ഥാനരഹിതമല്ലാത്തതോ ആയ വിവരങ്ങൾ ഉത്പാദിപ്പിക്കാൻ കാരണമാകുന്നുണ്ടെന്നും അദ്ദേഹം ചൂണ്ടിക്കാട്ടി.
ഒരു അഭിമുഖത്തിലാണ് പിച്ചൈ ഈ സുപ്രധാനമായ കാര്യം വ്യക്തമാക്കിയത്. സാങ്കേതികവിദ്യയിൽ ഗൂഗിൾ വലിയ തോതിൽ നിക്ഷേപം നടത്തുന്നുണ്ടെങ്കിലും, AI-യുടെ നിലവിലെ പരിമിതികളെക്കുറിച്ച് ഉപയോക്താക്കൾ ബോധവാന്മാരായിരിക്കണം. AI മോഡലുകൾക്ക് തെറ്റായ വിവരങ്ങൾ നൽകാനും, നിലവിലുള്ള ഡാറ്റാ സെറ്റുകളിൽ നിന്നുള്ള പക്ഷപാതം (Bias) ഉൾപ്പെടെയുള്ള പ്രശ്നങ്ങൾ പ്രതിഫലിപ്പിക്കാനും കഴിയും. അതുകൊണ്ട് നിർണായകമായ തീരുമാനങ്ങൾ എടുക്കുന്നതിനോ, വളരെ സെൻസിറ്റീവായ വിവരങ്ങൾക്കോ AI-യെ ആശ്രയിക്കുന്നത് അപകടകരമാണ്. മനുഷ്യൻ്റെ മേൽനോട്ടം (Human Oversight) ഇവിടെ അത്യാവശ്യമാണെന്നും അദ്ദേഹം ഓർമ്മിപ്പിച്ചു.
സങ്കീർണ്ണമായ ഡാറ്റാ സെറ്റുകൾ ഉപയോഗിച്ചാണ് AI പ്രവർത്തിക്കുന്നത്. ഈ മോഡലുകൾ എത്രത്തോളം വലുതാകുന്നുവോ, അവയുടെ പ്രവർത്തനം പൂർണ്ണമായി മനസ്സിലാക്കാനും, എവിടെയാണ് പിഴവ് സംഭവിക്കുന്നതെന്ന് കണ്ടെത്താനും അത്രത്തോളം ബുദ്ധിമുട്ടാണ്. അതുകൊണ്ടാണ് AI പലപ്പോഴും യുക്തിക്ക് നിരക്കാത്ത വിവരങ്ങൾ നൽകുന്നത്.
എങ്കിലും, AI മോഡലുകൾ കൂടുതൽ സുരക്ഷിതവും കൃത്യതയുള്ളതുമാക്കാനുള്ള ശ്രമങ്ങൾ ഗൂഗിളിൽ തുടരുകയാണെന്ന് പിച്ചൈ ഉറപ്പുനൽകി. ഈ പുതിയ സാങ്കേതികവിദ്യയുടെ ഗുണങ്ങൾ പരമാവധി പ്രയോജനപ്പെടുത്തുമ്പോൾ തന്നെ, അതിൻ്റെ പരിമിതികളെക്കുറിച്ച് ഉപയോക്താക്കൾക്ക് വ്യക്തമായ ധാരണ നൽകേണ്ടതിൻ്റെ പ്രാധാന്യം അദ്ദേഹം ഊന്നിപ്പറഞ്ഞു. ചുരുക്കത്തിൽ, AI ഒരു മികച്ച ഉപകരണമാണ്, പക്ഷേ ഒരു വിധികർത്താവായി അതിനെ കാണരുത് എന്നതാണ് ഗൂഗിൾ മേധാവി നൽകുന്ന സന്ദേശം.
വാചകം ന്യൂസ് വാട്ട്സ് ആപ്പ് ഗ്രൂപ്പിൽ പങ്കാളിയാകുവാൻ
ഇവിടെ ക്ലിക്ക് ചെയ്യുക
.
ടെലിഗ്രാം :ചാനലിൽ അംഗമാകാൻ ഇവിടെ ക്ലിക്ക് ചെയ്യുക .
ഫേസ്ബുക് പേജ് ലൈക്ക് ചെയ്യാൻ ഈ ലിങ്കിൽ (https://www.facebook.com/vachakam/) ക്ലിക്ക് ചെയ്യുക.
യൂട്യൂബ് ചാനൽ:വാചകം ന്യൂസ്
