MalayalamTechnology

മെഷീൻ ലേണിങ് / ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് – 3

ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ (Neural Networks)

Neural Networks

1950 കൾക്ക് മുൻപുള്ള, ഇന്നത്തെ കമ്പ്യൂട്ടർ സയൻസിന്റെയും ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെയും വളർച്ചക്ക് വിത്തുപാകിയ ചില സിദ്ധാന്തങ്ങളാണ് കഴിഞ്ഞ ഭാഗത്തിൽ പറഞ്ഞത്. അത്തരം സിദ്ധാന്തങ്ങളിൽ നിന്നും പ്രചോദനമുൾക്കൊണ്ട് പ്രവർത്തിക്കുന്ന യന്ത്രങ്ങൾ 1950 കൾക്ക് ശേഷമാണ് യാഥാർഥ്യമായത്. അന്നുമുതൽ 2006 വരെയുള്ള കാലമാണ് AI ചരിത്രത്തിലെ രണ്ടാം ഘട്ടം. അതിലേക്കു കടക്കുന്നതിനുമുന്പ് ന്യൂറൽ നെറ്റ്‌വർക്ക് എന്താണെന്ന് നമ്മൾ മനസിലാക്കേണ്ടതുണ്ട്.

കൃത്രിമബുദ്ധി അഥവാ AI എന്നത് മഷിനുകൾക്കു മനുഷ്യനെപ്പോലെ ചിന്തിക്കാനുള്ള ബുദ്ധി കൃത്രിമമായി നിർമിക്കുന്ന പ്രക്രിയയാണ്. നമ്മുടെ തലച്ചോറിനെയും, അതിലേക്കു ബന്ധപ്പെട്ടിരിക്കുന്ന, നമ്മുടെ ഇന്ദ്രിയങ്ങളിൽനിന്നും സിഗ്നലുകൾ അവിടേക്കെത്തിക്കുന്ന ന്യൂറോണുകളെയും അടിസ്ഥാനപ്പെട്ടാണ് നമ്മുടെ ബുദ്ധി ഇരിക്കുന്നത്. നമ്മുടെ തലച്ചോറിൽ 100 ബില്യണിലധികം ന്യൂറോണുകൾ ഉണ്ടെന്നാണ് കണക്ക്. നമ്മുടെ ഇന്ദ്രിയങ്ങളിൽ നിന്നും വരുന്ന ഇത്തരം കോടിക്കണക്കിനു സിഗ്നലുകളെ ക്രോഡീകരിച്ചാണ് നമ്മുടെ തലച്ചോറ് സംവേദനം (പെർസെപ്ഷൻ) എന്നത് സാധ്യമാക്കുന്നത്. ഉദാഹരണം പറഞ്ഞാൽ, നാം ഒരാളെ കാണുമ്പോൾ അയാളിൽനിന്നും വരുന്ന പ്രകാശകിരണങ്ങൾ നമ്മുടെ കണ്ണിൽ പതിക്കുകയും ആ കിരണങ്ങൾക്കനുസൃതമായി കണ്ണിൽ നിന്നും സിഗ്നലുകൾ തലച്ചോറിലേക്ക് ന്യൂറോണുകൾ എത്തിക്കുകയും ചെയ്യും. ഈ സിഗ്നലുകളിൽ നിന്നാണ് നമ്മുടെ തലച്ചോറ് നാം ആ ആളെ കണ്ടു എന്ന തോന്നൽ അല്ലെങ്കിൽ perception ഉണ്ടാക്കുന്നത്. കാഴ്ചക്ക് തലച്ചോറിലെ visual cortex എന്ന ഭാഗമാണ് പ്രധാനമായും ഉപയോഗിക്കുന്നത്. നമ്മുടെ തലച്ചോറ് ന്യൂറോണുകളിൽനിന്നും വരുന്ന സിഗ്നലുകളെ എങ്ങനെ ക്രോഡീകരിക്കുന്നു എന്നത് ഇന്നും നമുക്കധികം മനസിലാകാത്ത വിഷയമാണ്. അത് അറിയില്ലാത്തതുകൊണ്ടാണ് AI തീരുമാനങ്ങൾ (decision making ) എടുക്കാൻ മറ്റു സങ്കേതങ്ങൾ ഉപയോഗിക്കുന്നതും. (മറ്റു സങ്കേതങ്ങളെ പറ്റി വരും ഭാഗങ്ങളിൽ പറയാം)

Neural Networks

നമ്മുടെ ശരീരത്തിലെ സിഗ്നലുകൾ (ഉദാഹരണത്തിന് കണ്ണിൽ പതിഞ്ഞ പ്രകാശമോ, ഒരാൾ നമ്മളെ സ്പർശിക്കുന്നതോ) ന്യൂറോണുകൾ വഴിയാണ് തലച്ചോറിൽ എത്തുന്നതെന്ന് പറഞ്ഞല്ലോ. നമ്മുടെ ശരീരത്തിലെ ന്യൂറോണുകൾ എല്ലാം നേരെ തലച്ചോറുമായല്ല ബന്ധിപ്പിക്കപ്പെട്ടിരിക്കുന്നത്.. ഒരു ന്യൂറോണിൽ വരുന്ന സിഗ്നൽ മറ്റു പല ന്യൂറോണുകളിലൂടെ സഞ്ചരിച്ചാണ് ഒടുവിൽ തലച്ചോറിലെത്തുന്നത്. അതായത്, ഒരാളിൽ നിന്നും പ്രതിഫലിക്കുന്ന പ്രകാശം നമ്മുടെ കണ്ണിലെത്തുകയും, കണ്ണിനോട് നേരിട്ടു ബന്ധിപ്പിക്കപ്പെട്ടിരിക്കുന്ന നെർവ്കൾ ആ പ്രകാശത്തിനു ആനുപാതികമായരീതിയിൽ ഒരു ഇലക്ട്രിക്ക് സിഗ്നൽ ഉണ്ടാക്കുകയും ചെയ്യുന്നു. ഇത് അടുത്ത ന്യൂറോണിലേക്കു അതിലെ സിനാപ്സുകൾ വഴി കൈമാറ്റം ചെയ്യപ്പെടുന്നു (ചിത്രം കാണുക).

സിനാപ്സുകളിൽ ആ കൈമാറ്റം നടക്കുമ്പോൾ ഈ സിഗ്നലിൽ വീണ്ടും മാറ്റങ്ങൾ ഉണ്ടാവും. തലച്ചോറിനുള്ളിലും ന്യൂറോൺ വഴിയുള്ള കൈമാറ്റങ്ങൾ നടക്കുന്നുണ്ട്. കണ്ണിൽ ഓരോ പ്രകാശംവന്നു പതിക്കുമ്പഴും ഒന്നിലധികം ന്യൂറോണുകൾ ഇലെക്ട്രിക്കൽ സിഗ്നൽ ഉത്പാദിപ്പിക്കുന്നുണ്ട്. അതിനെ നെർവ് ഫയറിങ് (nerve firing) എന്നാണു വിളിക്കുന്നത്. ഇത്തരം സിഗ്നലുകളുടെ പവർ കണ്ണിൽ പതിക്കുന്ന പ്രകാശത്തിനു ആനുപാതികമായിട്ടായിരിക്കും. ഓരോ കാഴ്ചക്കും ഓരോ രീതിയിലാണ് ഫയറിംഗ് ഉണ്ടാവുക. അതായത് രണ്ടുവസ്തുക്കളിൽ നിന്നും പ്രതിഫലിക്കുന്ന പ്രകാശം വ്യത്യസ്തമായതിനാൽ, അവ കണ്ണിൽ പതിക്കുമ്പോൾ ഉള്ള നെർവ് ഫയറിങ്ങുകളും വ്യത്യസ്തങ്ങളായിരിക്കും. ഈ ഫയറിങ്ങിലെ വ്യത്യാസമാണ് നാം രണ്ടു വസ്തുക്കളെ രണ്ടായി സംവേദിക്കാൻ (perceive) ചെയ്യാനുള്ള കാരണം.

ഇത്തരം ന്യൂറൽ ഫയറിങ്ങുകൾ ഉത്പാദിപ്പിക്കുന്ന ഇലെക്ട്രിക്കൽ സിഗ്നലുകൾ തലച്ചോറിൽ എത്തുന്നത് ഒന്നിലധികം ന്യൂറോണുകൾ വഴിയാണെന്ന് പറഞ്ഞല്ലോ. ഓരോ സിനാപ്സിലും സിഗ്നലുകൾക്കു രൂപമാറ്റം സംഭവിക്കപ്പെടുമെന്നും. നമ്മൾ ഇതിനെ ലേയേറുകൾ (layers) എന്നാണു വിളിക്കുന്നത്. ഉദാഹരത്തിനു കണ്ണിലെ 1000 ന്യൂറോണുകൾ ആണ് ആദ്യ ലേയർ (ഈ സംഖ്യകൾ കൃത്യമല്ല). അത് 4000 ന്യൂറോണുകളോട് ബന്ധപ്പെട്ടിരിക്കുന്നു എന്ന് സങ്കല്പിക്കുക. കണ്ണിലെ ഈ 1000 ന്യൂറോണുകളിൽ നിന്നും അടുത്ത ലെയറിലെ 4000 ന്യൂറോണുകളിലേക്കു സിഗ്നൽ കൈമാറ്റം ചെയ്യപ്പെടുന്നു. അവിടന്ന് അടുത്ത ലെയറിലേക്ക്. അവിടെ ഒരുപക്ഷേ 10000 ന്യൂറോണുകൾ ആകാം ഉണ്ടാവുക. അങ്ങനെ പല ലേയറുകളിലൂടെ സഞ്ചരിച്ചാണ് സിഗ്നൽ തലച്ചോറിലെത്തുന്നത്. ഇതിനെയാണ് നമ്മൾ multi-layer neural networks എന്ന് വിളിക്കുന്നത്. ഓരോ ലെയറിലും സിനാപ്‌സിൽ കൈമാറ്റം നടക്കുമ്പോൾ സിഗ്നലിന്റെ രൂപം മാറുകയും ചെയ്യുന്നുണ്ട്.

ചുരുക്കത്തിൽ, ന്യൂറോണുകളുടെ ഒരു വലിയ നെറ്റ്‌വർക്ക് ആണ് നമ്മുടെ തലച്ചോറ് ഉപയോഗപ്പെടുത്തുന്നത്. വർഷങ്ങൾ നീണ്ട പരിണാമത്തിനു വിധേയമാക്കപ്പെട്ടു, ഏറ്റവും മികച്ച വികാസം കൈവരിച്ച, perfect machine ആണ് നമ്മുടെ തലച്ചോറ്. അതുകൊണ്ടുതന്നെ കൃത്രിമബുദ്ധി ഉണ്ടാക്കാനുള്ള പല ശ്രമങ്ങളും നമ്മുടെ തലച്ചോറിന്റെ പ്രവർത്തനത്തിൽനിന്നും പ്രചോദനം ഉൾക്കൊണ്ടാണ്. ഇത്തരം ഗവേഷണശാഖകളെ ആർട്ടിഫിഷ്യൽ ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ എന്നാണ് വിളിക്കുന്നത്. ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ എന്ന പദം ഈ സീരിസിൽ ഇനി ഒത്തിരിതവണ ആവർത്തിക്കപ്പെടുന്നതായതുകൊണ്ടാണ് ഇത്രവലിയൊരു ആമുഖം.

നമ്മുടെ ശരീരത്തിലെയെന്നപോലെ ഒന്നിലധികം ലേയേറുകളുള്ള, സിനാപ്സുകളിലെ കൈമാറ്റത്തിൽ സംഭവിക്കുന്ന മാറ്റങ്ങളെ ഗണിതശാസ്ത്രപരമായി approximate ചെയ്യുന്ന മോഡലുകൾ ഇന്ന് വികസിപ്പിക്കപ്പെട്ടിട്ടുണ്ട്. അതിനെ deep neural networks എന്നാണു വിളിക്കുന്നത്. ഒന്നിലധികം എന്നാൽ 6 മുതൽ 150 വരെ (അതിലും deep ആയിട്ടുള്ളവ ഉണ്ടാകാം) ലേയറുകൾ ഉള്ളവയായതിനാലാണ് deep എന്ന് വിളിക്കുന്നത്. ഇന്ന് ഏറ്റവും പ്രചാരത്തിലിരിക്കുന്ന, ഓരോ ദിവസവും അതിവേഗം വളരുന്ന ഗവേഷണമേഖലയാണ് deep neural networks (DNN) അഥവാ deep learning. കഴിഞ്ഞ 3-4 വർഷങ്ങൾക്കിടയിൽ നമ്മൾ ടെക്നോളജി കൂടുതലായി നേരിട്ടു ഉപയോഗിക്കുകയും, അതിന്റെ user experience ഇൽ അഭൂതപൂർവമായ പുരോഗതി ഉണ്ടാവുകയും ചെയ്തിട്ടുണ്ട്. ഉദാഹരണത്തിന്, translate, google search autocomplete, photo-tagging, relevant search, അങ്ങനെ പലതും നാം ദൈനംദിനമെന്നോണം ഉപയോഗിക്കുന്നുണ്ട്. ആ വളർച്ചക്കെല്ലാം പിന്നിൽ ഒരൊറ്റ പേരാണ്. DNN !!

***********************

Deep nueral networks, deep learning, multi-layered nueral networks തുടങ്ങിയ പദങ്ങളെ അവതരിപ്പിക്കാനാണ് ഈ പോസ്റ്റിൽ ശ്രമിച്ചിരിക്കുന്നത്. മുന്നോട്ടുള്ള ഈ സീരിസിന്റെ വായനയിൽ ഈ പോസ്റ്റിൽ പറഞ്ഞിരിക്കുന്ന പദങ്ങൾ പലതും ധാരാളം തവണ ആവർത്തിക്കപ്പെടും. അതുകൊണ്ടു ഈ പോസ്റ്റ് മനസിലാക്കാതെ അടുത്ത ഭാഗങ്ങളിലേക്ക് കടക്കാനാവില്ല. സംശയങ്ങൾ തീർച്ചയായും കമന്റിൽ ചോദിക്കുമല്ലോ.

AI ചരിത്രം അടുത്ത ഭാഗത്തിൽ തുടരും. മുൻപ് പറഞ്ഞതുപോലെ, ചരിത്രത്തിൽ ഇനി 2 ഭാഗങ്ങൾ ഉണ്ടാകും. അതിൽ ആദ്യഭാഗം deep neural networks (DNN) ന്റെ ആദ്യകാലവികാസങ്ങളും അതെങ്ങനെ, എന്തുകൊണ്ട് 1980കളോടെ അവസാനിക്കപ്പെട്ടു എന്നുള്ളതുമാണ്. രണ്ടാം ഭാഗത്തിൽ deep neural network ന്റെ 2006 ഇലെ രണ്ടാം വരവിനെപ്പറ്റിയുമാണ്. ആ രണ്ടാം വരവിലാണ് ഇന്നുകാണുന്ന DNN ന്റെ വളർച്ചയും അതുവഴി AI യുടെയും നമ്മുടെ ടെക്നോളജിയുടെയും നമ്മുടെപോലും തലവര മാറ്റി എഴുതപ്പെടുന്നതും.

Deepak Baby
Finished PhD from KU Leuven on speech enhancement and its applications to automatic speech recognition. Research expertise in statistical signal processing, automatic speech recognition, non-negative models, sparse representations, machine learning, neural networks and compressed sensing. Investigated exemplar-based sparse representation together with perceptually motivated features for speech enhancement and noise robust automatic speech recognition.

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.