Information et communication > Accueil > Internet des objets > Numéro 1 > Article
Hamdi Amroun
LIMSI-CNRS Université Paris Sud France
Nizar Ouarti
IPAL (Sorbonne UPMC CNRS ASTAR NUS IMT UJF) Singapore
M’Hamed (Hamy) Temkit
Mayo Clinic Division of Health Sciences Research USA
Mehdi Ammi
LIMSI-CNRS Université Paris Sud France
Publié le 1er avril 2017 DOI : 10.21494/ISTE.OP.2017.0137
Cet article présente une expérience montrant l’impact des transitions des positions d’un smartphone (d’une position fixe à une autre position fixe sur le corps) sur la reconnaissance de l’activité humaine, dans un environnement non contrôlé. Les activités étudiées sont : marcher, allonger, debout et assis. Dans cet environnement, les utilisateurs sont libres d’utiliser leur smartphone et de le faire passer d’une position à une autre, par exemple de la main à la poche. Notre méthodologie comprend la combinaison de différents capteurs. La classification est faite en utilisant l’algorithme du Deep Neural Network (DNN). Deux ensembles de données ont été considérés, la seule différence entre ces deux ensembles de données est que les transitions des positions du smartphone sont supprimées dans le deuxième ensemble de données. Les résultats montrent une amélioration de la précision de la classification des activités 93,87% pour l’ensemble total comprenant les transitions de positions et 95.07% pour l’ensemble de données avec les transitions supprimées. Nous montrons également qu’avec aucune transition, la convergence du DNN est plus rapide et plus
robuste. Par conséquent, notre méthode consistant à supprimer des informations correspondant aux transitions devrait permettre d’économiser de l’espace mémoire et du temps de calcul tout en offrant une haute précision de classification.
This paper presents an experiment that shows the impact of the transitions of smartphone positions (from one position to another on the human body) on the recognition of the human activity, in an uncontrolled environment. The studied activities are walking, laying, standing and sitting. In this environment, users are free to switch smartphone position, for instance from hand to pocket. Our methodology includes the combination of different sensors and a classification with a Deep Neural Network algorithm. Two datasets were considered, the only difference between the two datasets is that the transition are removed in the second dataset. Results show an improvement of accuracy of the classification of activities 93.87% for the control dataset compare to 95.07% for the dataset with removed transitions. We also show that with no transitions the convergence is quicker and more robust. Consequently, our method including removing information corresponding to transitions should save memory space and computing time while offering a high classification precision.