એવું કહેવામાં આવે છે કે ટેક્નોલોજી કંપનીઓ કાં તો GPU માટે ઝઘડી રહી છે અથવા તેમને હસ્તગત કરવાના માર્ગ પર છે. એપ્રિલમાં, ટેસ્લાના સીઇઓ એલોન મસ્કએ 10,000 GPU ખરીદ્યા અને જણાવ્યું કે કંપની NVIDIA પાસેથી મોટા પ્રમાણમાં GPU ખરીદવાનું ચાલુ રાખશે. એન્ટરપ્રાઇઝની બાજુએ, IT કર્મચારીઓ પણ રોકાણ પર મહત્તમ વળતર મેળવવા માટે GPU નો સતત ઉપયોગ કરવામાં આવે તેની ખાતરી કરવા માટે સખત દબાણ કરી રહ્યા છે. જો કે, કેટલીક કંપનીઓ શોધી શકે છે કે જ્યારે GPU ની સંખ્યામાં વધારો થાય છે, ત્યારે GPU આળસ વધુ ગંભીર બને છે.
જો ઈતિહાસે આપણને હાઈ-પર્ફોર્મન્સ કમ્પ્યુટિંગ (HPC) વિશે કંઈ શીખવ્યું હોય, તો તે એ છે કે સંગ્રહ અને નેટવર્કિંગને ગણતરી પર વધુ ધ્યાન કેન્દ્રિત કરવાના ભોગે બલિદાન આપવું જોઈએ નહીં. જો સ્ટોરેજ કમ્પ્યુટિંગ એકમોમાં ડેટાને અસરકારક રીતે ટ્રાન્સફર કરી શકતું નથી, ભલે તમારી પાસે વિશ્વમાં સૌથી વધુ GPU હોય, તો પણ તમે શ્રેષ્ઠ કાર્યક્ષમતા પ્રાપ્ત કરી શકશો નહીં.
સ્મોલ વર્લ્ડ બિગ ડેટાના વિશ્લેષક માઈક મેચેટના જણાવ્યા અનુસાર, નાના મોડલને મેમરી (RAM)માં એક્ઝિક્યુટ કરી શકાય છે, જેનાથી ગણતરી પર વધુ ધ્યાન આપવામાં આવે છે. જો કે, અબજો નોડ્સ સાથેના ચેટજીપીટી જેવા મોટા મોડલ ઊંચી કિંમતને કારણે મેમરીમાં સ્ટોર કરી શકાતા નથી.
"તમે મેમરીમાં અબજો નોડ્સ ફિટ કરી શકતા નથી, તેથી સ્ટોરેજ વધુ મહત્વપૂર્ણ બની જાય છે," મેચચેટ કહે છે. કમનસીબે, આયોજન પ્રક્રિયા દરમિયાન ડેટા સ્ટોરેજને ઘણીવાર અવગણવામાં આવે છે.
સામાન્ય રીતે, ઉપયોગના કેસને ધ્યાનમાં લીધા વિના, મોડેલ તાલીમ પ્રક્રિયામાં ચાર સામાન્ય મુદ્દાઓ છે:
1. મોડેલ તાલીમ
2. અનુમાન અરજી
3. ડેટા સ્ટોરેજ
4. એક્સિલરેટેડ કમ્પ્યુટિંગ
મોડલ બનાવતી વખતે અને તેનો ઉપયોગ કરતી વખતે, મોટાભાગની આવશ્યકતાઓ ક્વિક પ્રૂફ-ઓફ-કન્સેપ્ટ (POC) અથવા મોડલ તાલીમ શરૂ કરવા માટે પરીક્ષણ વાતાવરણને પ્રાથમિકતા આપે છે, જેમાં ડેટા સ્ટોરેજની જરૂરિયાતોને સર્વોચ્ચ ધ્યાનમાં લેવામાં આવતી નથી.
જો કે, પડકાર એ હકીકતમાં રહેલો છે કે તાલીમ અથવા અનુમાનની જમાવટ મહિનાઓ કે વર્ષો સુધી ટકી શકે છે. આ સમય દરમિયાન ઘણી કંપનીઓ ઝડપથી તેમના મોડલના કદમાં વધારો કરે છે, અને વધતા મોડલ અને ડેટાસેટ્સને સમાવવા માટે ઈન્ફ્રાસ્ટ્રક્ચરનું વિસ્તરણ કરવું જોઈએ.
લાખો ML તાલીમ વર્કલોડ પર Google દ્વારા સંશોધન દર્શાવે છે કે સરેરાશ 30% તાલીમ સમય ઇનપુટ ડેટા પાઇપલાઇન પર ખર્ચવામાં આવે છે. જ્યારે ભૂતકાળના સંશોધનોએ તાલીમને ઝડપી બનાવવા માટે GPU ને ઑપ્ટિમાઇઝ કરવા પર ધ્યાન કેન્દ્રિત કર્યું છે, ત્યારે ડેટા પાઇપલાઇનના વિવિધ ભાગોને ઑપ્ટિમાઇઝ કરવામાં હજુ પણ ઘણા પડકારો બાકી છે. જ્યારે તમારી પાસે નોંધપાત્ર કોમ્પ્યુટેશનલ પાવર હોય, ત્યારે વાસ્તવિક અડચણ એ બની જાય છે કે તમે પરિણામો મેળવવા માટે ગણતરીમાં કેટલી ઝડપથી ડેટા ફીડ કરી શકો છો.
ખાસ કરીને, ડેટા સ્ટોરેજ અને મેનેજમેન્ટમાં પડકારો માટે ડેટા વૃદ્ધિ માટે આયોજનની જરૂર છે, જે તમને સતત ડેટાના મૂલ્યને બહાર કાઢવાની મંજૂરી આપે છે જેમ તમે પ્રગતિ કરો છો, ખાસ કરીને જ્યારે તમે ડીપ લર્નિંગ અને ન્યુરલ નેટવર્ક જેવા વધુ અદ્યતન ઉપયોગના કેસોમાં સાહસ કરો છો, જે વધુ માંગ કરે છે. ક્ષમતા, પ્રદર્શન અને માપનીયતાના સંદર્ભમાં સંગ્રહ.
ખાસ કરીને:
માપનીયતા
મશીન લર્નિંગ માટે વિશાળ માત્રામાં ડેટાને હેન્ડલ કરવાની જરૂર પડે છે અને જેમ જેમ ડેટાનું પ્રમાણ વધે છે તેમ મોડલ્સની ચોકસાઈ પણ સુધરે છે. આનો અર્થ એ છે કે વ્યવસાયોએ દરરોજ વધુ ડેટા એકત્રિત અને સંગ્રહિત કરવો જોઈએ. જ્યારે સ્ટોરેજ સ્કેલ કરી શકતું નથી, ત્યારે ડેટા-સઘન વર્કલોડ અવરોધો બનાવે છે, પ્રભાવને મર્યાદિત કરે છે અને પરિણામે ખર્ચાળ GPU નિષ્ક્રિય સમય થાય છે.
સુગમતા
બહુવિધ પ્રોટોકોલ્સ (NFS, SMB, HTTP, FTP, HDFS, અને S3 સહિત) માટે લવચીક આધાર વિવિધ સિસ્ટમોની જરૂરિયાતોને પહોંચી વળવા માટે જરૂરી છે, એક જ પ્રકારના પર્યાવરણ સુધી મર્યાદિત રહેવાને બદલે.
લેટન્સી
I/O લેટન્સી મોડેલ બનાવવા અને ઉપયોગ કરવા માટે મહત્વપૂર્ણ છે કારણ કે ડેટા ઘણી વખત વાંચવામાં અને ફરીથી વાંચવામાં આવે છે. I/O લેટન્સી ઘટાડવાથી મોડલના તાલીમ સમયને દિવસો કે મહિનાઓથી ઘટાડી શકાય છે. ઝડપી મૉડલનો વિકાસ સીધો જ વધુ વ્યવસાયિક લાભોમાં અનુવાદ કરે છે.
થ્રુપુટ
કાર્યક્ષમ મોડેલ તાલીમ માટે સ્ટોરેજ સિસ્ટમ્સનું થ્રુપુટ નિર્ણાયક છે. તાલીમ પ્રક્રિયાઓમાં મોટા પ્રમાણમાં ડેટાનો સમાવેશ થાય છે, સામાન્ય રીતે ટેરાબાઇટ પ્રતિ કલાકમાં.
સમાંતર ઍક્સેસ
ઉચ્ચ થ્રુપુટ હાંસલ કરવા માટે, પ્રશિક્ષણ મોડલ પ્રવૃત્તિઓને બહુવિધ સમાંતર કાર્યોમાં વિભાજિત કરે છે. આનો અર્થ એ થાય છે કે મશીન લર્નિંગ અલ્ગોરિધમ્સ એકસાથે બહુવિધ પ્રક્રિયાઓ (સંભવિત રીતે બહુવિધ ભૌતિક સર્વર પર) માંથી સમાન ફાઇલોને ઍક્સેસ કરે છે. સંગ્રહ પ્રણાલીએ પ્રદર્શન સાથે સમાધાન કર્યા વિના સમવર્તી માંગને હેન્ડલ કરવી જોઈએ.
ઓછી વિલંબતા, ઉચ્ચ થ્રુપુટ અને મોટા પાયે સમાંતર I/O માં તેની ઉત્કૃષ્ટ ક્ષમતાઓ સાથે, ડેલ પાવરસ્કેલ એ GPU-એક્સિલરેટેડ કમ્પ્યુટિંગ માટે એક આદર્શ સંગ્રહ પૂરક છે. પાવરસ્કેલ વિશ્લેષણ મોડલ્સ માટે જરૂરી સમયને અસરકારક રીતે ઘટાડે છે જે મલ્ટિ-ટેરાબાઇટ ડેટાસેટ્સને તાલીમ આપે છે અને પરીક્ષણ કરે છે. પાવરસ્કેલ ઓલ-ફ્લેશ સ્ટોરેજમાં, I/O અડચણોને દૂર કરીને, બેન્ડવિડ્થ 18 ગણી વધે છે, અને મોટા પ્રમાણમાં અનસ્ટ્રક્ચર્ડ ડેટાના મૂલ્યને વેગ આપવા અને અનલૉક કરવા માટે હાલના Isilon ક્લસ્ટરોમાં ઉમેરી શકાય છે.
વધુમાં, પાવરસ્કેલની મલ્ટી-પ્રોટોકોલ એક્સેસ ક્ષમતાઓ વર્કલોડ ચલાવવા માટે અમર્યાદિત સુગમતા પ્રદાન કરે છે, જે ડેટાને એક પ્રોટોકોલનો ઉપયોગ કરીને સંગ્રહિત કરવાની અને બીજાનો ઉપયોગ કરીને ઍક્સેસ કરવાની મંજૂરી આપે છે. ખાસ કરીને, પાવરસ્કેલ પ્લેટફોર્મની શક્તિશાળી સુવિધાઓ, સુગમતા, માપનીયતા અને એન્ટરપ્રાઇઝ-ગ્રેડ કાર્યક્ષમતા નીચેના પડકારોનો સામનો કરવામાં મદદ કરે છે:
- મોડલ તાલીમ ચક્રને ઘટાડીને 2.7 ગણા સુધી નવીનતાને વેગ આપો.
- I/O અવરોધો દૂર કરો અને ઝડપી મોડેલ તાલીમ અને માન્યતા, સુધારેલ મોડલ ચોકસાઈ, ઉન્નત ડેટા વિજ્ઞાન ઉત્પાદકતા, અને એન્ટરપ્રાઇઝ-ગ્રેડ સુવિધાઓ, ઉચ્ચ પ્રદર્શન, સંમતિ અને માપનીયતાનો લાભ લઈને કમ્પ્યુટિંગ રોકાણો પર મહત્તમ વળતર પ્રદાન કરો. એક જ ક્લસ્ટરમાં 119 PB સુધીની અસરકારક સંગ્રહ ક્ષમતાનો લાભ લઈને ઊંડા, ઉચ્ચ-રિઝોલ્યુશન ડેટાસેટ્સ સાથે મોડલની ચોકસાઈમાં વધારો કરો.
- નાના અને સ્વતંત્ર રીતે સ્કેલિંગ કમ્પ્યુટ અને સ્ટોરેજ શરૂ કરીને, મજબૂત ડેટા સુરક્ષા અને સુરક્ષા વિકલ્પો પ્રદાન કરીને સ્કેલ પર જમાવટ પ્રાપ્ત કરો.
- ઝડપી, ઓછા જોખમની જમાવટ માટે ઇન-પ્લેસ એનાલિટિક્સ અને પ્રી-વેલિડેટેડ સોલ્યુશન્સ સાથે ડેટા સાયન્સ ઉત્પાદકતામાં સુધારો.
- NVIDIA DGX સિસ્ટમ્સ સાથે NVIDIA GPU પ્રવેગક અને સંદર્ભ આર્કિટેક્ચર્સ સહિત શ્રેષ્ઠ જાતિની તકનીકો પર આધારિત સાબિત ડિઝાઇનનો લાભ લેવો. પાવરસ્કેલનું ઉચ્ચ પ્રદર્શન અને સંમતિ, ડેટા સંપાદન અને તૈયારીથી લઈને મોડેલ તાલીમ અને અનુમાન સુધી, મશીન લર્નિંગના દરેક તબક્કે સ્ટોરેજ કામગીરીની જરૂરિયાતોને પૂર્ણ કરે છે. OneFS ઑપરેટિંગ સિસ્ટમ સાથે મળીને, તમામ નોડ્સ સમાન OneFS-સંચાલિત ક્લસ્ટરમાં એકીકૃત રીતે કાર્ય કરી શકે છે, જેમાં પર્ફોર્મન્સ મેનેજમેન્ટ, ડેટા મેનેજમેન્ટ, સિક્યોરિટી અને ડેટા પ્રોટેક્શન જેવી એન્ટરપ્રાઇઝ-લેવલ સુવિધાઓ છે, જે વ્યવસાયો માટે મોડલ તાલીમ અને માન્યતાને ઝડપી પૂર્ણ કરવા સક્ષમ બનાવે છે.
પોસ્ટ સમય: જુલાઈ-03-2023