ലേഖനം

ടിംനിറ്റ് ഗെബ്രു ഗൂഗിളിനോട് പറയുന്നത്



ഒറ്റക്കും കൂട്ടായുമൊക്കെ ഐടി കമ്പനികൾ ജീവനക്കാരെ പലപ്പോഴും പിരിച്ചുവിടാറുണ്ട്. അതൊന്നും പൊതുവേ വലിയ പ്രതിഷേധങ്ങൾക്ക് വഴിവെയ്ക്കുകയോ മാധ്യമശ്രദ്ധ ആകർഷിക്കുകയോ ചെയ്യാറില്ല. എന്നാൽ ഈ പതിവ് തെറ്റിച്ച ഒരു പിരിച്ചുവിടൽ വിവരസാങ്കേതിക മേഖലയിലെ ഏറ്റവും വലിയ കമ്പനികളിലൊന്നായ ഗൂഗിളിൽ ഇക്കഴിഞ്ഞ ഡിസംബറിൽ നടന്നു. അതിന്റെ എത്തിക്കൽ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ടീമിന്റെ ലീഡുകളിലൊരാളായ ടിംനിറ്റ് ഗെബ്രുവിനെ (Timnit Gebru) ജോലിയിൽ നിന്നും പറഞ്ഞു വിട്ടതായിരുന്നു ആ സംഭവം. നിർമിതബുദ്ധിയിൽ (Artificial Intelligence) ഗൂഗിൾ നടത്തുന്ന ചില ഗവേഷണങ്ങളുടെ പ്രത്യാഘാതങ്ങൾ, കറുത്തവരടക്കമുള്ള ന്യൂനപക്ഷങ്ങളെ ജോലിക്കെടുക്കുന്നതിൽ കാട്ടുന്ന അലംഭാവം തുടങ്ങിയ കാര്യങ്ങളെക്കുറിച്ച് ഗെബ്രു ഉയർത്തിയ വിമർശനങ്ങളാണ് ഗൂഗിളിനെ ചൊടിപ്പിച്ചത് എന്ന് റിപ്പോർട്ടുകൾ പറയുന്നു.

ഈ പുറത്താക്കൽ വലിയ പ്രതിഷേധങ്ങൾക്കിടയാക്കുമെന്ന് ഗൂഗിൾ കരുതിയിരുന്നോ എന്നറിയില്ല. അതെന്തായാലും കമ്പനിയുടെ അകത്തളത്തിൽ പുകയുകയും ഒതുങ്ങുകയും ചെയ്യുന്ന ഒരു പതിവ് അസ്വാരസ്യമായി ഗെബ്രുവിന്റെ പുറത്താക്കൽ ഒതുങ്ങിയില്ല. ഗൂഗിളിനകത്തും പുറത്തും അതിനെച്ചൊല്ലി ഒട്ടേറെ ചർച്ചകളും പ്രതിഷേധങ്ങളും ഉണ്ടായി. ഇപ്പോഴും ആ പ്രതിഷേധങ്ങളുടെ അനുരണനങ്ങൾ തുടരുന്നു. ഡോ. ടിംനിറ്റ് ഗെബ്രുവിനൊപ്പം എന്ന ഐക്യദാർഢ്യ പ്രഖ്യാപനത്തിൽ ഒപ്പുവെച്ച ഏഴായിരത്തോളം പേരിൽ 2695 വ്യക്തികൾ ഗൂഗിൾ ജോലിക്കാരാണെങ്കിൽ ബാക്കിയുള്ളവർ പുറത്തുള്ള അക്കാദമിക്കുകളും ഗവേഷകരും സിവിൽ സൊസൈറ്റി ആക്റ്റിവിസ്റ്റുകളും ആയിരുന്നു. ‘ബിഗ് ടെക്’ എന്ന ഓമനപ്പേരിൽ അറിയപ്പെടുന്ന വിവരസാങ്കേതിക വിദ്യയിലെ അതിഭീമന്മാരായ കമ്പനികളുടെ ചരിത്രത്തിലാദ്യമായിട്ടായിരിക്കണം ഇങ്ങനെയൊരു സംഭവം ഉണ്ടാകുന്നത്.

നിർമിതബുദ്ധിയുടെ മേഖലയിൽ ശ്രദ്ധേയമായ ഗവേഷണങ്ങളിലൂടെ ശ്രദ്ധയാകർഷിച്ച ഒരു യുവശാസ്ത്രജഞയാണ് ടിംനിറ്റ് ഗെബ്രു. പ്രത്യേകിച്ച് അത്തരം സാങ്കേതികവിദ്യകളുടെ സാമൂഹികമായ പ്രത്യാഘാതങ്ങളെക്കുറിച്ചും നൈതികമായ വിവക്ഷകളെക്കുറിച്ചുമൊക്കെയുള്ള പഠനങ്ങൾ നടത്തിയാൾ. കേവലമായ അക്കാദമിക് താല്പര്യങ്ങളാൽ മാത്രം നയിക്കപ്പെടുന്ന ഒന്നല്ലായിരുന്നു അവരുടെ ഗവേഷണങ്ങൾ. ആദ്യകാല ജീവിതാനുഭവങ്ങൾ പിന്നീട് തൊഴിലിലും ഗവേഷണത്തിലുമൊക്കെയുള്ള തന്റെ തിരഞ്ഞെടുപ്പുകളിലും നിലപാടുകളിലും പ്രതിഫലിച്ചിട്ടുണ്ട് എന്ന് അവർ ഒരു അഭിമുഖത്തിൽ പറയുകയുണ്ടായിട്ടുണ്ട്.

എരിത്രിയൻ വംശജയായ ഗെബ്രു ജനിച്ചത് എത്യോപ്യയിൽ ആയിരുന്നു. എത്യോപ്യയും എരിത്രിയയും തമ്മിലുള്ള വർഷങ്ങളോളം നീണ്ടുനിന്ന തീവ്രസംഘർഷങ്ങളാൽ ജന്മനാട്ടിൽ നിന്ന് പലായനം ചെയ്യേണ്ടി വന്ന അനേകരിൽ ചിലരായിരുന്നു ഗെബ്രുവും കുടുംബവും. കുട്ടിയായിരുന്നപ്പോഴേ അമേരിക്കയിൽ രാഷ്ട്രീയ അഭയം നേടാനായത് ഗെബ്രുവിന്റെ ജീവിതത്തിലെ നിർണായകമായ വഴിത്തിരിവായി. ലോകത്തിലെ ഏറ്റവും പ്രശസ്തമായ സർവ്വകലാശാലശാലകളിലൊന്നായ സ്റ്റാൻഫോർഡിൽനിന്ന് കംപ്യൂട്ടർ സയൻസിൽ ഡോക്ടറേറ്റ് നേടാനും ആ മേഖലയിൽ മൗലികമായ ഗവേഷണങ്ങൾ നടത്താനും അതുകാരണം അവർക്കായി. ഗൂഗിളിന് മുമ്പ് ഗെബ്രു ആപ്പിളിലും മൈക്രോസോഫ്ട് റിസേർച്ചിലും ജോലിയും ഗവേഷണവും ചെയ്തിട്ടുണ്ട്. അതോടൊപ്പം നിർമിതബുദ്ധിപോലുള്ള ആധുനിക സാങ്കേതികവിദ്യകളുടെ ഗവേഷണരംഗങ്ങളിൽ കറുത്ത കറുത്തവർഗക്കാരുടെ’ സാന്നിധ്യം വർദ്ധിപ്പിക്കുന്നതിനായി പ്രവർത്തിക്കുന്ന Black in AI എന്ന സംഘടനയുടെ സ്ഥാപക കൂടിയാണ് അവർ. പക്ഷെ, അഭിമാനാർഹമായ ഈ നേട്ടങ്ങളുടെ പട്ടിക ഗൂഗിളിലെ ഗവേഷകജോലി നിലനിർത്താൻ ഗെബ്രുവിനെ സഹായിച്ചില്ല എന്നതാണ് വാസ്തവം. അസുഖകരമായ ചോദ്യങ്ങൾ ഉയർത്തുന്നവർ അനിവാര്യമായും എസ്റ്റാബ്ലിഷ്‌മെന്റിന് അനഭിമതരായി മാറും എന്ന പൊതുതത്വം അവിടെയും നടപ്പാക്കപ്പെട്ടു.

ഒരു വ്യക്തിയുടെ കരിയർ ഗ്രാഫിലെ ഏറ്റവും ഇറക്കവും എന്ന നിലയിൽ ചുരുക്കി കാണേണ്ട ഒന്നല്ല ഈ സംഭവം. അതിലുമുപരിയായ മറ്റു ചില മാനങ്ങൾ കൂടിയുണ്ട് ഇതിന്. നിർമിതബുദ്ധി പോലുള്ള പുതിയ സാങ്കേതിക വിദ്യകളുടെ വികാസം ഒരു സവിശേഷസന്ധിയിൽ എത്തിനിൽക്കുകയാണ്. ഈ സാങ്കേതിക വിദ്യകളും അവയ്ക്ക് രൂപം കൊടുക്കുന്ന സ്ഥാപനങ്ങളും നമ്മുടെയൊക്കെ ജീവിതങ്ങളെ സമാനതകളില്ലാത്ത രീതിയിൽ സ്വാധീനിക്കുകയും പുനഃസൃഷ്ടിക്കുകയും ചെയ്തുകൊണ്ടിരിക്കുന്ന കാലമാണിത്. ഈ പ്രശ്നപരിസരത്തിന്റെ സങ്കീർണമായ പശ്ചാത്തലത്തിൽ നിന്നു വേണം ഗെബ്രു സംഭവത്തിന്റെ വിവക്ഷകളെ മനസിലാക്കാൻ.

സ്വന്തം ബുദ്ധിയെ കവച്ചുവെയ്ക്കുന്ന യന്ത്രബുദ്ധിയെക്കുറിച്ച് മനുഷ്യർ ചിന്തിച്ചു തുടങ്ങുന്നത് ഈയടുത്ത കാലത്തൊന്നുമല്ല. ബുദ്ധിയിലും കഴിവിലും മനുഷ്യനെ വെല്ലുന്ന യന്ത്രങ്ങളെ കുറിച്ചുള്ള ഭാവനകൾ നമ്മുടെ മിത്തുകളിലും പഴങ്കഥകളിലും ആവർത്തിച്ച് പ്രത്യക്ഷപ്പെടുന്നുണ്ട്. ഈ ഭാവനകൾ പ്രയോഗസാധ്യതയുള്ള പരികല്പനകളായി മാറുന്നത് ഇരുപതാം നൂറ്റാണ്ടിന്റെ പകുതിയോടെ കംപ്യൂട്ടറുകൾ നിലവിൽ വന്നപ്പോഴാണ്. കമ്പ്യൂട്ടർ സയൻസിന്റെ ആദ്യകാല പ്രണേതാക്കളിൽ അഗ്രഗണ്യരായിരുന്ന അലൻ ട്യൂറിങ്ങിനെയും കാൾ വോൺ ന്യൂമാനെയും പോലുള്ള ശാസ്ത്രജ്ഞർ യന്ത്രബുദ്ധിയുടെ സാധ്യതകളെ കുറിച്ച് ബോധവാൻമാരായിരുന്നു.

ട്യൂറിംഗ് ‘മൈൻഡ്’ എന്ന ശാസ്ത്രജേണലിൽ പ്രസിദ്ധീകരിച്ച “കമ്പ്യൂട്ടിംഗ് മെഷിനറിയും ഇന്റലിജൻസും” എന്ന പ്രബന്ധമായിരിക്കണം നിർമ്മിതബുദ്ധി എന്ന ആശയത്തിന് ശാസ്ത്രത്തിന്റെ സൈദ്ധാന്തികാടിത്തറ നൽകാനുള്ള ആദ്യ ശ്രമം. ഇരുപത്തൊന്നാം നൂറ്റാണ്ടാകുമ്പോഴേക്ക് ബുദ്ധിയുള്ള യന്ത്രങ്ങളുടെ പ്രതികരണങ്ങളെ മനുഷ്യരുടേതിൽ നിന്ന് വേർതിരിച്ചറിയുക അസാധ്യമാകും എന്നായിരുന്നു അദ്ദേഹത്തിന്റെ പ്രവചനം. നിർമ്മിതബുദ്ധി ആ കഴിവ് ആർജ്ജിച്ചിട്ടുണ്ടോ എന്ന് എങ്ങിനെ ഉറപ്പിച്ചു പറയാമെന്ന് കണ്ടെത്താനുള്ള ഒരു മാർഗവും അദ്ദേഹം നിർദ്ദേശിച്ചു. ഈ പരിശോധനയെ ട്യൂറിംഗ് ടെസ്റ്റ് എന്നാണ് വിളിച്ച് വരുന്നത്.

പക്ഷെ, പിന്നീടങ്ങോട്ടുള്ള കുറച്ചു ദശകങ്ങളിൽ നിർമിതബുദ്ധിയിലുള്ള ഗവേഷണങ്ങൾക്ക് വിവരസാങ്കേതികവിദ്യയിലെ മറ്റ് മേഖലകളിൽ ഉണ്ടായ പുരോഗതി കൈവരിക്കാനൊത്തില്ല. ഉടൻ ഉപയോഗമൂല്യം കണ്ടെത്താനൊക്കുന്ന സാങ്കേതികവിദ്യകൾ ഉണ്ടാക്കിയെടുക്കാൻ കഴിയാത്തതായിരുന്നു ഒരു പ്രധാന കാരണം.

എന്നാൽ ഇരുപതാം നൂറ്റാണ്ടിന്റെ അവസാനത്തോടെ ആ സ്ഥിതിക്ക് മാറ്റം വന്നു. നിർമ്മിത ബുദ്ധിയിൽ പൊതുവേയും, അതിന്റെ ഉപശാഖകളിൽ ഒന്നായ മെഷീൻലേർണിംഗിൽ പ്രത്യേകിച്ചും, വിപ്ലവകരമായ മാറ്റങ്ങളുണ്ടായി. ഈ പുതിയ സാങ്കേതികവിദ്യകൾക്കൊന്നും തന്നെ അലൻ ട്യൂറിംഗ് പ്രവചിച്ചപോലെ ട്യൂറിംഗ് ടെസ്റ്റിനെ മറികടക്കാൻ ഇനിയുമായിട്ടില്ലായിരിക്കാം. പക്ഷെ, സാങ്കേതിക വിദ്യ ആ ദിശയിലേക്ക് അതിവേഗം പുരോഗമിക്കുകയാണ് എന്ന നിലയിലേക്കെത്തിയിട്ടുണ്ട് കാര്യങ്ങൾ.

ഇതിന് കാരണമായത് കമ്പ്യൂട്ടർ ശൃംഖലകളുടെ ആവിർഭാവവും അതിന്റെ സ്വാഭാവിക പരിണാമമെന്നോണം ഇന്റർനെറ്റ് സാങ്കേതികവിദ്യകൾക്ക് കൈവന്ന പ്രചുരപ്രചാരവും ആയിരുന്നു. 1989 ൽ ആയിരുന്നു സർ ടിമോത്തി ബേൺസ് ലീ എന്ന ബ്രിട്ടീഷ് ശാസ്തജ്ഞൻ വേൾഡ് വൈഡ് വെബിന് രൂപം കൊടുക്കുന്നത്. അത് മനുഷ്യരുടെ നിത്യജീവിതവ്യവഹാരങ്ങൾക്ക് ഒഴിച്ചു നിർത്താനൊക്കാത്ത അടിസ്ഥാനസൗകര്യങ്ങളിലൊന്നായി മാറിയത് വളരെ പെട്ടെന്നായിരുന്നു. മൊബൈൽ ഡാറ്റാ നെറ്റ് വർക്കുകളും സ്മാർട്ട് ഫോണുകളും ഈ പ്രവണതക്ക് വേഗം കൂട്ടി.

ഇതിന്റെ ഒരു അനന്തരഫലം മനുഷ്യരുടെ വൈയക്തികവും സാമൂഹികവും ആയ സകല വ്യവഹാരങ്ങളുടെയും വിവരങ്ങൾ സൂക്ഷിക്കപ്പെട്ടിട്ടുള്ള കൂറ്റൻ വിവരശേഖരങ്ങൾ ഇന്റർനെറ്റിനകത്ത് ഉണ്ടായിവന്നതാണ്. ബിഗ് ഡാറ്റ എന്ന് അറിയപ്പെടുന്ന ഈ വിവരശേഖരങ്ങൾ വിശകലനം ചെയ്യാനൊത്താൽ കിട്ടുന്ന ഉൾക്കാഴ്ചകളുടെ സാധ്യതകൾ ഭരണകൂടങ്ങളും കമ്പോള മുതലാളിത്തവും തിരിച്ചറിഞ്ഞു. പക്ഷെ, മനുഷ്യബുദ്ധിക്കോ സാധാരണ കമ്പ്യൂട്ടർ പ്രോഗ്രാമുകൾക്കോ വിശകലനം ചെയ്യാൻ പറ്റുന്നതിലും വളരെ വലുതായിരുന്നു ഈ ശേഖരങ്ങൾ.

നിർമ്മിത ബുദ്ധി വികസിപ്പിച്ചെടുക്കാനുള്ള ശ്രമങ്ങൾക്ക് പുതുജീവൻ കൈവരുന്നത് അങ്ങിനെയാണ്. ബിഗ് ഡാറ്റയെ മനനം ചെയ്യാനും അങ്ങിനെ പഠിച്ചെടുത്ത പാഠങ്ങളും ഉൾക്കാഴ്ച്ചകളും ഉപയോഗിച്ച് പ്രയോഗക്ഷമമായ തീരുമാനങ്ങളെടുക്കാനും പ്രവചനങ്ങൾ നടത്താനും കപ്യൂട്ടറുകളെ സജ്ജമാക്കുന്ന മെഷീൻ ലേണിംഗ് അൽഗോരിതങ്ങൾ (Machine learning algorithms) വികസിപ്പിച്ചെടുക്കുന്നതിലായിരുന്നു ഇത്തവണത്തെ ഊന്നൽ. ഏതെങ്കിലും ഒരു കൃത്യം നടത്തുന്നതിനായുള്ള അവിതര്‍ക്കിതവും കൃത്യവുമായ ഒരു കൂട്ടം നിർദ്ദേശങ്ങളുടെ ശ്രേണിയാണ് ഗണിതശാസ്ത്രത്തിലും കമ്പ്യൂട്ടർ സയൻസിലും അൽഗോരിതം എന്നറിയപ്പെടുന്നത്. വളരെ സങ്കീർണമാണ് മെഷീൻ ലേണിംഗ് അൽഗോരിതങ്ങൾ. കംപ്യൂട്ടർ സയൻസും ആധുനിക ഗണിതശാസ്ത്രവും തൊട്ട് ജീവശാസ്ത്രവും പ്രകൃതിവിജ്ഞാനവും വരെയുള്ള ശാസ്ത്രശാഖകളിൽ നിന്നുള്ള വിവരങ്ങളെയും ഉൾക്കാഴ്ച്ചകളെയും ഉപയോഗപ്പെടുത്തിയാണ് ഈ അൽഗോരിതങ്ങൾ വികസിപ്പിച്ചെടുക്കുന്നത്.

ഇന്ന് ഇങ്ങനെയുള്ള അൽഗോരിതങ്ങളുടെ സ്വാധീനം ഷോപ്പിംഗ്, ബാങ്കിംഗ്, സർക്കാർ സേവനങ്ങൾ തുടങ്ങിയ നിത്യജീവിതക്രിയകൾ തൊട്ട് പൊതുതെരഞ്ഞെടുപ്പുകൾ പോലുള്ള രാഷ്ട്രീയ-സാമൂഹിക വ്യവഹാരങ്ങളിൽ വരെയുള്ള മനുഷ്യജീവിതത്തിന്റെ സമസ്ത മേഖലകളിലും പ്രകടമാണ്. നമ്മൾ എന്ത് കാണണമെന്നും എങ്ങിനെയൊക്കെ ചിന്തിക്കണമെന്നും എങ്ങിനെ പെരുമാറണമെന്നും ഒക്കെ നിശ്ചയിക്കുന്നത് അൽഗോരിതങ്ങളാണ്. തൊഴിലിലും വഴിയിലും വീട്ടിലും അവ നമ്മെ പിന്തുടരുന്നു. ഡിജിറ്റല്‍/വിവര സാങ്കേതികവിദ്യകളിലെ ഏറ്റവും പുതിയ കണ്ടെത്തലുകളും ഗതിമാറ്റങ്ങളും നമ്മുടെ ജീവിതത്തെ തിരിച്ചറിയാൻ പറ്റാത്ത രീതിയിൽ മാറിക്കൊണ്ടിരിക്കുന്നു. ഇന്ന് ആഗോളസമ്പദ് വ്യവസ്ഥയിലെ ഏറ്റവും വലിയ കമ്പനികൾ മിക്കതും ഈ രംഗത്തുള്ളവയാണ് – ഗൂഗിൾ ആമസോൺ, ആപ്പിൾ, ഫേസ്‌ബുക്, മൈക്രോസോഫ്റ്റ്… പക്ഷെ, നിർമ്മിതബുദ്ധിയുടെയും അൽഗോരിതങ്ങളുടെയും അനുബന്ധസാങ്കേതികവിദ്യകളുടെയും കാലം പുരോഗതിയുടെയും ശുഭപ്രതീക്ഷകളുടേതും മാത്രമല്ല, ഡിസ്‌ടോപിയൻ ഭീതികളുടേതു കൂടിയാണ്. ടിംനിറ്റ് ഗെബ്രു അടക്കമുള്ള അനവധി ഗവേഷകരുടെ പഠനങ്ങളും അവർ പങ്കുവെക്കുന്ന ആശങ്കകളും വിരൽ ചൂണ്ടുന്നത് അടിസ്ഥാനരഹിതമല്ല എന്ന വസ്തുതയിലേക്കാണ്. പ്രധാനമായും നാലു കാര്യങ്ങളെ ചൊല്ലിയുള്ളതാണ് ഈ സാങ്കേതികവിദ്യകളെക്കുറിച്ചുള്ള ഭീതികൾ:

ഒന്ന്, അവ സ്വന്തം പൗരന്മാരെ എല്ലായ്‌പ്പോഴും നിരീക്ഷണത്തിന് വിധേയമാക്കുന്ന പനോപ്റ്റികോണുകൾ തീർക്കാൻ ഭരണകൂടങ്ങളെ സഹായിക്കുന്നു. തടവുപുള്ളികളെ എ പ്പോഴും കാഴ്ചവട്ടത്തിൽ ഉണ്ടെന്ന് ഉറപ്പുവരുത്താൻ പാകത്തിൽ പതിനെട്ടാം നൂറ്റാണ്ടിൽ ജീവിച്ചിരുന്ന ജെറമി ബെൻതാം എന്ന സാമൂഹ്യ പരിഷ്കർത്താവ് രൂപകല്പന ചെയ്ത ജയിലാണ് പനോപ്റ്റികോൺ. 2013 -ൽ ഗാർഡിയൻ, വാഷിംഗ്‌ടൺ പോസ്റ്റ് തുടങ്ങിയ പത്രങ്ങളിലൂടെ എഡ്‌വേഡ്‌ സ്നോഡെൻ നടത്തിയ വെളിപ്പെടുത്തലുകൾ ജനാധിപത്യരാജ്യങ്ങളെന്ന് നമ്മൾ കരുതുന്ന രാജ്യങ്ങളിൽപോലും “Big brother is watching” എന്ന ഓർവെല്ലിയൻ ദുസ്വപ്നം സംഭവ്യമാണെന്ന് കാട്ടിത്തന്നു.

രണ്ട്, വ്യക്തികളുടെ സ്വകാര്യതയെ ഒരു പഴങ്കഥയാകുന്നതിൽ ഭരണകൂടങ്ങളെ പോലെ ഈ സാങ്കേതികവിദ്യകളെ വാണിജ്യവൽക്കരിക്കുന്ന കോർപറേറ്റുകളും വലിയ പങ്കു വഹിക്കുന്നു. അമേരിക്കൻ ചിന്തകയായ ശോഷാന സൂബോഫ് ഗൂഗിളും ഫേസ്ബുക്കും പോലുള്ള കമ്പനികൾ പ്രതിനിധാനം ചെയ്യുന്ന ഹൈടെക്ക് മുതലാളിത്തത്തിന് അർത്ഥവത്തായ ഒരു പേര് കൊടുത്തിട്ടുണ്ട് – സർവെയിലൻസ് ക്യാപിറ്റലിസം. വ്യക്തികളെ നിരന്തരമായി നിരീക്ഷണവിധേയരാക്കുകയും, അങ്ങിനെ ശേഖരിക്കുന്ന അവരെ കുറിച്ചുള്ള വിവരങ്ങൾ ചരക്കുവൽക്കരിക്കുകയും, പലപ്പോഴും അതിനപ്പുറം കടന്ന് വ്യക്തിയുടെ സ്വഭാവത്തെയും ആഗ്രഹങ്ങളെയും മാറ്റത്തക്ക രീതിയിലിലുള്ള സ്വാധീനം ചെലുത്തുകയും ചെയ്യുന്നു മുതലാളിത്തത്തിന്റെ ഈ പുത്തൻ രൂപം. ഈ കമ്പനികളുടെയൊന്നും യഥാർത്ഥ കസ്റ്റമേഴ്‌സ് നമ്മളല്ല. നമ്മളെ കുറിച്ചുള്ള ഏറ്റവും സൂക്ഷ്മമായ അറിവുകളുപയോഗിച്ച് ഏറ്റവും കൃത്യമായ പരസ്യങ്ങൾ നമ്മളിലേക്കെത്തിക്കാൻ അവരെ ആശ്രയിക്കുന്ന മറ്റു കമ്പനികളാണ്. 2019 ൽ ഗൂഗിളിന്റെ പരസ്യങ്ങളിൽനിന്നുള്ള വരുമാനം 13500 കോടി അമേരിക്കൻ ഡോളറായിരുന്നു. കമ്പനിയുടെ മൊത്ത വരുമാനത്തിന്റെ 70 ശതമാനത്തിൽ കൂടുതൽ. അതുപോലെ 8000 കോടിയലധികം വരുമാനമുള്ള ഫേസ്ബുക്കിന് പരസ്യങ്ങളിൽ നിന്നുള്ള വരുമാനം 99 ശതമാനത്തിൽ കൂടുതലും. ഗൂഗിളും ഫേസ്ബുക്കും മാത്രമല്ല ആമസോണും ആപ്പിളും മൈക്രോസോഫ്റ്റും ഉൾപ്പെടെയുള്ള മറ്റ് ‘ബിഗ് ടെക്’ കമ്പനികളും അൽഗോരിതങ്ങളുപയോഗിച്ചുള്ള സർവെയ്‌ലൻസും വിശകലനവും തങ്ങളുടെ വാണിജ്യതാല്പര്യങ്ങളുടെ അധീശത്വം ഉറപ്പിക്കാനായി ഉപയോഗിക്കുന്നവരാണ്.

മൂന്ന്, അൽഗോരിതങ്ങളെത്തിച്ചേരുന്ന അനുമാനങ്ങൾ അവയുടെ മൗലികമായ സ്വഭാവ സവിശേഷതകൾ കൊണ്ടുതന്നെ നിഷ്പക്ഷവും സ്വീകാര്യവും ആയിക്കൊള്ളണമെന്നില്ല. ഉദാഹരണത്തിന്, ഗണിതശാസ്ത്രപരമായ സംഭാവ്യതയെ അടിസ്ഥാനമാക്കി അൽഗോരിതങ്ങളെത്തുന്ന നിഗമനങ്ങൾ സ്വാഭാവിക നീതിയുടെ നിഷേധത്തിനും മനുഷ്യാവകാശനിഷേധങ്ങൾക്കും ഇടയാക്കാനുള്ള സാധ്യത വളരെ വലുതാണ്. അൽഗോരിതങ്ങളിൽ അന്തർലീനമായിട്ടുള്ള ഇത്തരം പ്രശ്നങ്ങളാൽ സാമൂഹ്യക്ഷേമപദ്ധതികളിൽനിന്ന് ഒഴിവാക്കപ്പെടുകയും സർക്കാർസംവിധാനങ്ങളിൽ നിന്ന് നീതി ലഭിക്കപ്പെടാതെ പോകുകയും ചെയ്യുന്ന നിരവധി പഠനങ്ങൾ ഉണ്ടാകുന്നുണ്ട്. മറ്റൊരു പ്രശ്‍നം, അൽഗോരിതങ്ങളെ പരിശീലിപ്പിക്കാനായി ഉപയോഗിക്കുന്ന ഡാറ്റയിലെ പക്ഷപാതിത്വങ്ങളും ചായ്‌വുകളുമാണ് (bias). അൽഗോരിതങ്ങൾ ഉപയോഗിക്കുന്ന വിവരങ്ങളുടെ ശേഖരണത്തിലും തിരഞ്ഞെടുപ്പിലും മുൻവിധികൾ ഉണ്ടാകാമെന്ന് പല ഗവേഷകരും ചൂണ്ടികാട്ടിയിട്ടുണ്ട്. വർഗ്ഗപരവും വംശീയവും ജാതീയവും സാമ്പത്തികവും ഒക്കെയായ വിവേചനങ്ങളും അസമത്വങ്ങളും നിലനിൽക്കുന്ന ഒരു സമൂഹത്തിൽ നിന്ന് ശേഖരിക്കപ്പെടുന്ന സ്ഥിതിവിവരക്കണക്കുകൾ മുൻവിധികൾ നിറഞ്ഞതാണെങ്കിൽ അതിലത്ഭുതപ്പെടാനില്ലല്ലോ. ഡാറ്റയിലെ ഇത്തരം ചായ്‌വുകൾ അൽഗോരിതങ്ങളുടെ മുൻവിധികളായി മാറാനുള്ള സാധ്യത വളരെ വലുതാണ്.

നാല്, ഈ പുതിയ സാങ്കതികവിദ്യകളുടെ പ്രകടമല്ലാത്ത ചെലവുകളും പാരിസ്ഥിതികാഘാതങ്ങളും പലപ്പോഴും നമ്മൾ ഊഹിക്കുന്നതിലും വളരെ വലുതാണ്.

ഇത്തരം വിമർശനങ്ങൾ തങ്ങളുടെ വിശ്വാസ്യതക്ക് കാര്യമായ കോട്ടം തട്ടിക്കുമെന്ന നില വന്നപ്പോഴാണ്, ഗൂഗിളിനെ പോലുള്ള വലിയ കമ്പനികൾ ഈ വിഷയങ്ങളിൽ സ്വന്തം നിലയിൽ ഗവേഷണം നടത്താനുള്ള ശ്രമങ്ങൾക്ക് തുടക്കം കുറിച്ചത്. ഗെബ്രു ജോലി ചെയ്തിരുന്ന എത്തിക്കൽ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ടീം അങ്ങനെയുള്ള ഒന്നായിരുന്നു. നിർമ്മിതബുദ്ധിയുടെ നൈതികവും സാമൂഹികവുമായ വിവക്ഷകളെ കുറിച്ചുളള ഗവേഷണ പഠനങ്ങൾക്ക് കോർപറേറ്റുകൾ തന്നെ മുൻകൈ എടുക്കുന്നത് സ്വാഗതാർഹമാണെങ്കിലും അതെത്രമാത്രം ഫലവത്താകും എന്നതിനെക്കുറിച്ച് സംശയങ്ങളുണ്ടാകുക ന്യായമാണ്. സ്വന്തം ബിസിനസ് താല്പര്യങ്ങളെ വെല്ലുവിളിക്കുന്ന ഗവേഷണഫലങ്ങളെ കമ്പനികൾ സ്വീകരിക്കാൻ തയ്യാറാകുമോ എന്ന പ്രസക്തമായ ചോദ്യമാണ് ഈ സംശയങ്ങൾക്ക് പിന്നിൽ. ഗെബ്രുവിന്റെ പുറത്താക്കലിന് കാരണമായ അപ്രകാശിത ഗവേഷണ പ്രബന്ധത്തിന്റെ വിശദവിവരങ്ങൾ എം.ഐ.ടി ടെക്നോളജി റിവ്യൂ പ്രസിദ്ധീകരിച്ചിട്ടുണ്ട്. അതിലൂടെ കടന്നു പോയാൽ ഈ സംശയങ്ങൾ അസ്ഥാനത്തല്ലെന്ന് ബോധ്യപ്പെടും.

ഭാഷ ഉപയോഗിച്ച് അർത്ഥവത്തായ രചനകൾ നടത്താൻ നിർമിതബുദ്ധിയെ പ്രാപ്തമാക്കുന്ന ലാംഗ്വേജ് മോഡലുകളാണ് ഗെബ്രുവും മറ്റു ചിലരും ചേർന്ന് നടത്തിയ ഈ പഠനത്തിന്റെ വിഷയം. ഇന്റർനെറ്റിന്റെ പല ഭാഗങ്ങളിൽ നിന്നും ശേഖരിച്ച പാഠങ്ങളുടെ (texts) കൂറ്റൻ ശേഖരം ഉപയോഗിച്ചാണ് ഇത്തരം മോഡലുകളെ പരിശീലിപ്പിക്കുന്നത്. ഇതിനാവശ്യമായ വൈദ്യുതിയും അതിന്റെ കാർബൺ വികിരണമടക്കമുള്ള പാരിസ്ഥിതികാഘാതങ്ങളും കണക്കിലെടുക്കുമ്പോൾ ഇത്തരം സംരംഭങ്ങൾ ആശാസ്യമാണോ എന്ന ചോദ്യമാണ് ഗെബ്രുവും കൂട്ടരും വസ്തുതകൾ നിരത്തി ഉയർത്തുന്നത്. ഇത്തരം സാങ്കേതിക വിദ്യകളുടെ ചിലവു താങ്ങാനാകുന്നതും ഗുണം ലഭിക്കുന്നതും സമ്പന്നരായ സ്ഥാപനങ്ങൾക്ക് മാത്രമാണ്. അതേസമയം കാലാവസ്ഥാവ്യതിയാനം പോലുള്ള കാര്യങ്ങളുടെ ദൂഷ്യഫലങ്ങൾ അനുഭവിക്കുന്നത് ഈ പ്രോജെക്ടറ്റുകളുടെ ഗുണഭോക്താക്കൾ ആകാനൊക്കാത്ത സമൂഹത്തിലെ പാർശ്വവൽക്കരിക്കപ്പെട്ട ജനവിഭാഗങ്ങളും.

ഈ പ്രബന്ധത്തിലെ വേറൊരു പ്രധാന വിമർശനം നേരത്തെ സൂചിപ്പിച്ച അൽഗോരിതങ്ങളെ പരിശീലിപ്പിക്കാനായി ഉപയോഗിക്കുന്ന ഡാറ്റയിലെ പക്ഷപാതിത്വങ്ങളെയും ചായ്‌വുകളെയും കുറിച്ചുള്ളതാണ്. ഇന്റർനെറ്റിൽ നിന്ന് ആവാവുന്നത്ര പാഠങ്ങൾ/എഴുത്തുകൾ (texts) ശേഖരിക്കുകയാണ് അൽഗോരിതത്തെ ഏറ്റവും നന്നായി പരിശീലിപ്പിക്കാനുള്ള ഒരേയൊരു വഴി. ആ എഴുത്തുകളിൽ ഒരു വലിയ പങ്കും സമൂഹത്തിൽ നിലനിൽക്കുന്ന പുരുഷമേധാവിത്വത്തെയും വംശീയവും വർഗ്ഗപരവുമൊക്കെയായ വിവേചനങ്ങളെയും പ്രതിഫലിപ്പിക്കുകയും സാധൂകരിക്കുകയും ചെയ്യുന്നതാണ് താനും. അർത്ഥത്തിൽ മാത്രമല്ല, ഭാഷാശൈലിയിലും പ്രയോഗത്തിലും പോലും. ഇവയിൽ നിന്നും എഴുതാൻ പഠിക്കുന്ന അൽഗോരിതം ഇത്തരം വിവേചനങ്ങളെയും ആശാസ്യമല്ലാത്ത പ്രവണതകളെയും ആന്തരവൽക്കരിക്കാനിടയുണ്ട്.

നിർമിതബുദ്ധിയുടെ ലാംഗ്വേജ് മോഡലുകളെ കുറിച്ചുള്ള ഇങ്ങനെയുള്ള വിമർശനങ്ങൾ ഉയർത്തിയിട്ടുള്ളത് ഗെബ്രുവും കൂട്ടുകാരും മാത്രമല്ല. ഏതാനും ദിവസം മുൻപാണ് ഓപ്പൺ എഐ എന്ന സ്ഥാപനത്തിലെയും സ്റ്റാൻഫോർഡ് യൂണിവേഴ്സിറ്റിയിലെയും ചില ഗവേഷകർ ഇത്തരം മോഡലുകളുടെ ദുഷ്ഫലങ്ങളെ അഭിസംബോധന ചെയ്യേണ്ടതിന്റെ അടിയന്തിര പ്രാധാന്യം ഊന്നി പറയുന്ന ഒരു ഗവേഷണ പഠനം പ്രസിദ്ധീകരിച്ചത്. ലാംഗ്വേജ് മോഡലുകളിൽ ഏറ്റവും പ്രചാരമുള്ള GPT-3 കറുത്തവർഗക്കാരെയും വിവേചിച്ച് കാണുന്നുവെന്ന് കാട്ടിത്തരുന്ന പഠനങ്ങൾ ഉണ്ടായിട്ടുണ്ട്.

ഇതോടൊപ്പം ചേർത്തു വായിക്കേണ്ടുന്ന മറ്റൊരു ഗൗരവകരമായ പ്രശ്‍നം കൂടി ഗെബ്രുവിന്റെ പുറത്താക്കൽ മുന്നോട്ട് വെക്കുന്നുണ്ട്. അത് തൊഴിലിടങ്ങളിൽ ലിംഗപരവും വംശീയവും സാംസ്‌ക്കാരികവുമൊക്കെ ആയ വൈജാത്യങ്ങളെ, പലമയെ, പ്രോത്സാഹിപ്പിക്കുന്നതിലുള്ള വിമുഖതയെക്കുറിച്ചുള്ളതാണ് . ഹൈ ടെക്ക് കമ്പനികളിൽ നേതൃ തലത്തിൽതന്നെ ഏറെ ചർച്ചചെയ്യപ്പെടുന്ന ഒരു കാര്യമാണ് “diversity and Inclusion”. പക്ഷെ ഫലത്തിൽ, ആണധികാരത്തിനും വെളുത്ത വർഗത്തിനും അധീശത്വമുള്ള തൊഴിലിടങ്ങളാണവ. പലമയുടെ അഭാവം മുഴച്ചു നിൽക്കുന്ന ഒരു തൊഴിലിടത്തിൽ മേൽക്കൈ നേടുന്ന ഇടുങ്ങിയ ലോകവീക്ഷണം അവിടെ നിന്നുണ്ടാക്കുന്ന സാങ്കേതികവിദ്യകളിലും പ്രതിഫലിച്ചേക്കാം .

ഇത് ഒരു അതിവായനയല്ല. പ്രിവിലേജ്ഡ് ആയിട്ടുള്ള സാമൂഹ്യസാഹചര്യങ്ങളിൽ നിന്നു വരുന്ന സാങ്കേതികവിദഗ്ദ്ധർ ടെക്നോളജി കീഴേത്തട്ടിലുള്ള മനുഷ്യരെ എങ്ങനെയൊക്കെയാണ് ബാധിക്കുന്നതെന്ന് മനസ്സിലാക്കാൻ ബുദ്ധിമുട്ടുള്ളവരാണെന്നത് ഇതെഴുതുന്ന ആളുടെ വ്യക്തിപരമായ അനുഭവം കൂടിയാണ് . ഗണിത ശാസ്ത്രജ്ഞയും ബിഗ് ഡാറ്റയുടെയും, അൽഗോരിതങ്ങളുടെയും ചതിക്കുഴികളുടെ നിശിത വിമർശകയുമായ കാത്തി ഒനീൽ തന്റെ Weapons of Math Destruction എന്ന ഗ്രന്ഥത്തിൽ നടത്തിയ ശ്രദ്ധേയമായ ഒരു നിരീക്ഷണം ഓർമ്മയിലെത്തുന്നു: “തങ്ങളുടെ വിശകലനങ്ങളുടെ ഉപഭോക്താക്കളായ മനുഷ്യരെക്കുറിച്ച് ഡാറ്റ സയന്റിസ്റ്റ് പൊതുവെ ആലോചിക്കാറില്ല. ബിഗ് ഡാറ്റ ഉപയോഗിക്കുന്ന പ്രോഗ്രാമുകൾ ഒരു നിശ്ചിത ശതമാനം ഗുണഭോക്താക്കൾക്ക് വീടോ, ജോലിയോ തെറ്റായി നിഷേധിക്കപ്പെടാൻ ഇടയാക്കിയേക്കാം എന്ന് അവർക്ക് അറിയാഞ്ഞല്ല. പക്ഷേ, ഒഴിച്ചുകൂടാൻ പറ്റാത്ത തെറ്റുകളായി ഇവയെ അവഗണിക്കാറാണ് പതിവ്… ഇങ്ങനെയുള്ള കാര്യങ്ങളിൽ അന്യവാര്യമായി വന്നു പെട്ടേക്കാവുന്ന നാശനഷ്ടങ്ങൾ.”

പുതിയ സാങ്കേതിക വിദ്യകളുടെ ലോകത്തെ കുറിച്ച് ഇങ്ങനെ നിരവധി ശാസ്ത്രജ്ഞരും അക്കാദമിക്കുകളും ആക്ടിവിസ്റ്റുകളുമൊക്കെ ഉയർത്തിവരുന്ന ആശങ്കകൾക്ക് അടിവരയിടുന്നു ഗെബ്രുവിനെ ഗൂഗിൾ പുറത്താക്കിയ സംഭവം. ഈ കമ്പനികൾ അതിരുകടക്കാതെ സ്വയം നിയന്ത്രിക്കുമെന്ന വിശ്വാസം അസ്ഥാനത്താണെന്നും, ഈ മേഖല ചർച്ചകളും സംവാദങ്ങളും വിമർശനങ്ങളും അംഗീകരിക്കുന്ന ജനാധിപത്യപരമായ സാമൂഹ്യനിയന്ത്രണം ആവശ്യപ്പെടുന്നുണ്ടെന്നും അത് വിളിച്ചു പറയുന്നു.

Comments
Print Friendly, PDF & Email