شماره ركورد كنفرانس :
5405
عنوان مقاله :
محاسبات لبه و معماري توزيع شده يادگيري ماشين
عنوان به زبان ديگر :
Edge computing and distributed machine learning architecture
پديدآورندگان :
بابائي پيمان peyman.babaei@iau.ac.ir دانشگاه آزاد اسلامي واحد تهران غرب , شهرستاني محمدرضا sh.mohamadreza96@gmail.com دانشگاه آزاد اسلامي واحد تهران غرب
كليدواژه :
محاسبات لبه , معماري توزيع شده , يادگيري ماشين , تجهيزات لبه , محاسبات ابري.
عنوان كنفرانس :
دومين كنفرانس ملي كسب و كار نوين در مهندسي برق و كامپيوتر
چكيده فارسي :
برنامه هاي كاربردي يادگيري ماشين اغلب به خدمات ابري ارائه شده توسط شركت ها متكي هستند. تجهيزات و سخت افزارهاي لبه كه اين برنامه ها را اجرا مي كنند، بايد داده هاي دريافت شده از حسگرها را به مراكز داده منتقل كنند تا پردازش اين حجم از داده ها كه به توان محاسباتي بالايي نياز دارد، توسط GPU ياTPU پردازش شده و نهايتا مدل آموزش داده شده براي ادامه روند كار برنامه به دستگاه مبداء بازگردانده شود. اگرچه اين رويكرد، اجراي برنامه هاي كاربردي با توان محاسباتي بالا را بر روي تجهيزات و سخت افزارهاي لبه امكان پذير مي كند، اما داراي معايب و الزاماتي است كه در همه حالات نمي توان آنها را برآورده كرد. سير تكامل يادگيري ماشين، افزايش حجم و پيچيدگي مدل هاي يادگيري ماشين را در چند سال گذشته نشان مي دهد. مدل هاي پيشرفته چندين برابر، پارامترهاي بيشتري نسبت به مدل هاي اوليه دارند و اين روند، پياده سازي مدل ها در تجهيزات داراي حافظه و توان پردازشي محدود را دشوارتر مي كند. بنابراين، از ديدگاه يادگيري ماشين، اين چالش وجود دارد كه اندازه مدل بايد كوچك شود و در عين حال، دقت مدل نيز بهبود يابد. اخيرا با بكارگيري معماري توزيع شده يادگيري ماشين بر روي تجهيزات لبه، انتقال داده ها كاملاً حذف مي شود و تنها بر روي نحوه پردازش داده ها در همان تجهيزات لبه متمركز مي شود. معماري توزيع شده يادگيري ماشين يك زمينه نوظهور در يادگيري ماشين بر روي تجهيزات لبه است. لذا با مطالعه تكنيكهاي يادگيري ماشين و با درنظر گرفتن محدوديت هاي ميكروكنترلرها و تجهيزات لبه، ارائه يك معماري توزيع شده ميتواند راه كاري براي حل اين چالش باشد.
چكيده لاتين :
Machine learning applications often rely on cloud services provided by companies. Edge equipment and hardware that run these programs must transfer the data received from the sensors to the data centers to process this volume of data, which requires high computing power, to be processed by the GPU or TPU and finally the trained model should be sent back to the source device to continue the application process. Although this approach enables the execution of high computing applications on edge devices and hardware, it has disadvantages and requirements that must be met in all cases that they cannot be met. The evolution of machine learning shows the increase in the volume and complexity of machine learning models in the past few years. Advanced models have many times more parameters than the basic models, and this trend, the implementation of the model makes it more difficult in equipment with limited memory and processing power. Therefore, from the point of view of machine learning, there is a challenge that the size of the model should be reduced and at the same time, the accuracy of the model should be improved. Recently, by applying distributed learning architecture Machine at the edge equipment completely eliminates data transfer and focuses only on how data is processed at the same edge equipment. Distributed machine learning architecture is an emerging field in machine learning on edge devices. Therefore, by studying machine learning techniques and considering the limitations of microcontrollers and edge equipment, providing a distributed architecture can be a way to solve this challenge.