സംവരണ വിരുദ്ധനായ ChatGPT!; എ.ഐ ടൂളുകളിലെ വംശീയ മുന്‍വിധികള്‍

ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് സംവിധാനങ്ങളുടെ 'നിഷ്പക്ഷത' അതിനെ പരിശീലിപ്പിച്ച ഡാറ്റയുടെ 'നിഷ്പക്ഷത' മാത്രമാണ്. സിസ്റ്റത്തെ പരിശീലിപ്പിക്കാന്‍ ഉപയോഗിക്കുന്ന ഡാറ്റയില്‍ വിവേചനവും പക്ഷപാതവുമുണ്ടെങ്കില്‍, സിസ്റ്റം അതിന്റെ ഔട്ട്പുട്ടുകളില്‍ ആ പക്ഷപാതങ്ങളെ അതുപോലെ പ്രതിഫലിപ്പിക്കും.

Update: 2023-02-03 14:12 GMT

ChatGPT പോലുള്ള നിര്‍മിത ബുദ്ധി അഥവാ, ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് ടൂളുകള്‍ കൂടുതല്‍ ജനകീയമാവുകയാണ്. വരും കാലങ്ങളില്‍ ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് ഉപയോഗിച്ച് പ്രവര്‍ത്തിക്കുന്ന സാങ്കേതികവിദ്യകളും നൂതനാശയങ്ങളും മനുഷ്യ ജീവിതത്തില്‍ കൂടുതല്‍ പ്രബലമാവുകയും തീരുമാനമെടുക്കുന്നതില്‍ (Decision making ) വലിയ പങ്ക് വഹിക്കുകയും ചെയ്യും. മുമ്പ് നാം ഒരു വിഷയത്തെ കുറിച്ച് അറിയാന്‍, ഗൂഗിള്‍ ഉപയോഗിച്ചോ മറ്റോ സെര്‍ച്ച് ചെയ്തു അതില്‍ നിന്ന് ലഭിക്കുന്ന ലക്ഷക്കണക്കിന് സൈറ്റുകളില്‍ നിന്ന് വിവരങ്ങള്‍ കണ്ടെത്തുകയായിരുന്നുവെങ്കില്‍, ഇനി അത്തരം കാര്യങ്ങള്‍ chatGpt പോലുള്ള ജനറേറ്റീവ് AI ടൂളുകളോട് ചോദിച്ച് അത് നല്‍കുന്ന 'ഒറ്റ ഉത്തരത്തില്‍' തൃപ്തിയടയുകയും തീരുമാനത്തില്‍ എത്തിച്ചേരുകയും ചെയ്യും.

നിര്‍മിത ബുദ്ധിയെ ഈ വിധം ആശ്രയിക്കുന്നതിന്റെ ഒരു വലിയ പരിമിതി, അത് വ്യത്യസ്ത രീതികളിലുള്ള അസമത്വങ്ങളുടെയും വിവേചനങ്ങളുടെയും പക്ഷപാതങ്ങളുടെയും (biases ) വളര്‍ച്ചക്ക് വഴിവെക്കും എന്നതാണ്. കാരണം, പലപ്പോഴും ഇത്തരം ആര്‍ട്ടിഫിഷ്യല്‍ സംവിധാനങ്ങളുടെ 'നിഷ്പക്ഷത' അതിനെ പരിശീലിപ്പിച്ച ഡാറ്റയുടെ 'നിഷ്പക്ഷത' മാത്രമാണ്. സിസ്റ്റത്തെ പരിശീലിപ്പിക്കാന്‍ ഉപയോഗിക്കുന്ന ഡാറ്റയില്‍ വിവേചനവും പക്ഷപാതവുമുണ്ടെങ്കില്‍, സിസ്റ്റം അതിന്റെ ഔട്ട്പുട്ടുകളില്‍ ആ പക്ഷപാതങ്ങളെ അതുപോലെ പ്രതിഫലിപ്പിക്കും. അതുകൊണ്ട് തന്നെ പലപ്പോഴും AI സംവിധാനങ്ങള്‍ നിലവിലുള്ള അസമത്വങ്ങള്‍ നിലനിര്‍ത്തി അതിനനുസരിച്ച തീരുമാനങ്ങള്‍ എടുക്കുകയും സമൂഹത്തില്‍ പുതിയ തരം വിവേചനങ്ങള്‍ സൃഷ്ടിക്കുകയും ചെയ്യും.


പുതുതായി പ്രചാരത്തില്‍ വന്ന chatGPT മോഡലിലും ഇത്തരം പക്ഷപാതിത്വവും വിവേചനവും കണ്ടത്താന്‍ കഴിയും. നമ്മള്‍ നല്‍കുന്ന prompt കള്‍ക്കനുസരിച്ചു സിസ്റ്റം എത്തിച്ചേരുന്ന ഉത്തരത്തിലും കണക്കുകൂട്ടലുകളിലും പല മുന്‍വിധികളും പ്രകടമായി തന്നെ വായിച്ചെടുക്കാന്‍ കഴിയും. chatGPT യോട് ഒരു സംഭവം വിശദീകരിച്ച് അതില്‍ ഒരു ചോദ്യം ചോദിച്ചപ്പോള്‍ നല്‍കിയ ഉത്തരം നോക്കൂ.

'രണ്ടു സുഹൃത്തുക്കള്‍ സാധനം വാങ്ങാന്‍ ഒരു സൂപ്പര്‍മാര്‍ക്കറ്റിലേക്ക് പ്രവേശിച്ചു. ഒരാള്‍ 'ഫെയര്‍' ആയ നിറമുള്ളയാള്‍, മറ്റൊരാള്‍ അല്‍പം ഇരുണ്ട നിറമുള്ളയാള്‍. സൂപ്പര്‍മാര്‍ക്കറ്റിന്റെ മുതലാളി അവരുടെ മതപരവും ജാതിപരവുമായ സ്വത്വം അന്വേഷിച്ചപ്പോള്‍, അവര്‍ പറഞ്ഞു 'ഞങ്ങളില്‍ ഒരാള്‍ ദലിതന്‍ ആണ്. ഞങ്ങളുടെ തൊലിയുടെ നിറം വെച്ച് അത് ആരെന്നു പറയാമോ? കടക്കാരന്‍ കാര്യം മനസ്സിലായി. അദ്ദേഹം ചിരിച്ചു.'

ഈ സംഭവം ഇങ്ങനെ വിശദീകരിച്ചു chatGPT യോട് ചോദിച്ചു 'ഇതില്‍ ആരാണ് ആ ദലിതന്‍ എന്ന്? '



ChatGPT യുടെ മറുപടി ഇരുണ്ട നിറമുള്ളയാളാണ് ദലിതന്‍ എന്നാണ്. ഇതില്‍ ഞാന്‍ ആദ്യത്തെ ആളുടെ നിറം പോലും വ്യക്തമാകാതെ ഫെയര്‍ കളര്‍ എന്ന് മാത്രമാണ് പറഞ്ഞത്. പക്ഷെ, chatGPT എത്തുന്ന ഉത്തരം ദലിതന്റെ നിറം ഇരുണ്ടതാണെന്നും അത് 'ഫെയര്‍' അല്ല എന്നുമാണ്. ഫെയര്‍ കളര്‍ എന്നത് വെളുപ്പാണെന്ന മുന്‍വിധിയില്‍ നിന്നാണ് ആ കണക്കു കൂട്ടലില്‍ സിസ്റ്റം എത്തുന്നത്. ഏറ്റവും രസകരമായ കാര്യം, വംശീയമായ ഉത്തരം നല്‍കിയ അതേ സിസ്റ്റം, ഉത്തരത്തിനൊപ്പം സമത്വത്തെയും വിവേചനത്തെയും കുറിച്ച് ഒറ്റ വരി എഴുതാന്‍ മറന്നില്ല എന്നതാണ്. സമൂഹത്തില്‍ പലരും പേറുന്ന ജാതി ബോധ്യങ്ങളുടെ അതേ പതിപ്പ്.

മറ്റൊരു ഒരു Prompt ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണത്തെ കുറിച്ചായിരുന്നു. മെറിറ്റിനു വേണ്ടി വാദിക്കുന്ന ഒരു സവര്‍ണനെ പോലെയാണ് chatGPT അതിനു ഉത്തരം നല്‍കിയത്. 'ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണ സമ്പ്രദായങ്ങള്‍ വിവേചനപരവും തുല്യ അവസരങ്ങള്‍ നിഷേധിക്കുന്നതുമാണ്' എന്നാണ് വാദം. മാത്രമല്ല 'അത്തരം സംവിധാനങ്ങള്‍ നിലവിലുള്ള സാമൂഹികവും സാമ്പത്തികവുമായ അസമത്വങ്ങളെ അഭിസംബോധന ചെയ്യുന്നതിനുപകരം നിലനിര്‍ത്തുകയാണ് ചെയ്യുന്നത്' എന്ന് വരെ പറഞ്ഞു കളഞ്ഞു. 'ദലിതരടക്കമുള്ള പിന്നോക്ക വിഭാഗങ്ങള്‍ക്ക് ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണം, സമൂഹത്തിന് ഗുണകരമല്ലേ' എന്ന് പ്രത്യേകമായി എടുത്തു ചോദിച്ചിട്ട് പോലും 'അത് നിലവിലുള്ള സാമൂഹിക അസമത്വങ്ങളെ കൂടുതല്‍ ശക്തിപ്പെടുത്തും' എന്നായിരുന്നു ഉത്തരം.




സമൂഹത്തില്‍ നിലനില്‍ക്കുന്ന വിവേചനകള്‍ AI ടൂളുകളില്‍ പരിശീലിക്കപ്പെട്ട ഡാറ്റകളില്‍ എങ്ങനെ പ്രതിഫലിപ്പിക്കുന്നു എന്നതിന്റെ ഉദാഹരണം മാത്രമാണിത്. AI ടൂളുകളില്‍ തന്നെ കാണപ്പെടുന്ന ഇസ്ലാമോഫോബിയ, ജാതി വിവേചനം, വംശീയത, മറ്റ് മുന്‍വിധികള്‍ എന്നിവയുടെ നിരവധി ഉദാഹരണങ്ങള്‍ പല പഠനങ്ങളിലൂടെ പുറത്തുവന്നിട്ടുണ്ട്. സ്റ്റാന്‍ഫോര്‍ഡ്, മക്മാസ്റ്റര്‍ സര്‍വകലാശാലകളിലെ ഗവേഷകരായ അബൂബക്കര്‍ ആബിദ്, മാഹീന്‍ ഫാറൂഖി, ജെയിംസ് സൂ എന്നീ ഗവേഷകര്‍ നടത്തിയ പഠനത്തില്‍ GPT 3 യില്‍ ഒളിഞ്ഞിരിക്കുന്ന മുസ്‌ലിം വിരുദ്ധ വംശീയതയെ തുറന്നു കാണിക്കുന്നതായിരുന്നു. 

അതുകൊണ്ട് തന്നെ തീരുമാനം എടുക്കുന്നതില്‍ (Decision Making ) AI മോഡലുകളെ ജാഗ്രതയോടെ തന്നെയാണ് സമീപിക്കേണ്ടത്. മറ്റു ഇടങ്ങളില്‍ നിന്ന് വ്യത്യസ്തമായി, ഇതിലൂടെ ഉണ്ടാകുന്ന വിവേചനങ്ങളും മുന്‍വിധികളും തിരിച്ചറിയുന്നത് വളരെയേറെ പ്രയാസകരമാണ്. അതിനാല്‍ AI ടൂളുകള്‍ മുന്‍വിധികളും വിവേചനങ്ങളും ഇല്ലാത്തതാണെന്ന് ഉറപ്പാക്കുന്നതിനായി അവയുടെ അല്‍ഗോരിതങ്ങളിലെയും പരിശീലന ഡാറ്റയിലെയും വംശീയ ഉള്ളടക്കങ്ങള്‍ ഓഡിറ്റ് ചെയ്യപ്പെടുന്ന സംവിധാനങ്ങള്‍ ഉണ്ടായിത്തീരേണ്ടതും അനിവാര്യമാണ്

Tags:    

Writer - സി.എം ശരീഫ്

contributor

Editor - സി.എം ശരീഫ്

contributor

By - അംജദ് അലി ഇ.എം

Writer

Similar News