Résolution 2017: Deep Learning!

Voilà quatre années que je n’ai rien écrit ici. Même pas un petit brouillon. Mais voilà: ma résolution 2017 est techno, alors elle passe par ici. Les résolutions étant ce qu’elles sont, mieux vaut les partager, et inspecter notre progrès régulièrement. David Seah proposait il y a 10 ans de faire ses résolutions le jour de la marmotte, en février, puis de mesurer le progrès chaque mois. Comme j’ai eu du temps pour réfléchir durant mon congé, et que je dois profiter d’un rabais exceptionnel chez Udemy (15$/cours) avant le 11 janvier, ma résolution est déjà faite.

En janvier 2016, je planifiais des travaux à la maison qui m’empêcheraient de pratiquer mon hobby: brasser de la bière. Pour me motiver à terminer les travaux, je me suis donné comme objectif de brasser de la bière avant la fin de l’année, mais au sous-sol, là où les travaux avaient lieu. Après des mois de travail acharné, j’ai finalement brassé six bières différentes en décembre 2016. Pourquoi six? Il fallait bien rattraper le temps perdu! 🙂

Et voici 2017. Les « data science » et le « deep learning » sont très à la mode. L’apprentissage-machine est partout, et l’industrie reconnaît maintenant sa valeur. Les progrès en calcul informatique ont permis une explosion de possibilités. Je me donne donc comme objectif d’apprendre les concepts fondamentaux et les mathématiques derrière l’apprentissage-machine.

Ça reste un objectif flou, n’est-ce pas? Pour concrétiser ça, j’ai décidé de suivre des cours. Je suis tombé sur Udemy, qui offre plusieurs cours de mathématiques, de probabilités et statistiques, et d’apprentissage-machine. Je vais essentiellement refaire une partie des cours de maths de mon baccalauréat avorté en génie, puis me lancer dans le coeur du problème.

J’ai un an pour suivre les cours choisis. Je commence l’année en étudiant une heure le matin, au rythme d’une heure par jour. Ça sera le minimum pour compléter mes cours. Je ne promets pas de compte-rendu détaillé ici, mais je compte faire des rétrospectives personnelles régulières.

C’est vers l’an 2000 que j’ai acquis l’ouvrage de Simon Hawkins – Neural Networks, a comprehensive foundation. Dix-huit ans plus tard, je serai peut-être en mesure de passer à travers, au-delà de l’introduction…

Cet article a été publié dans 2017, Journal. Ajoutez ce permalien à vos favoris.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s