Par nos experts: les étudiants

Frank Kouamou, M2 en 2015-2016, consultant technico-fonctionnel chez CGI.

n https://www.linkedin.com/in/frank-cedric-kouamou-704295a6/

Jeune diplômé d’école d’ingénieur, j’ai passé presque deux ans dans une entreprise en qualité de consultant technique, j’aimais mon travail de part les différentes technologies (SAP , Oracle) que j’utilisais et les projets sur lesquels le travaillais, mais je ne voulais plus être celui qui exécute et reste cantonné au domaine technique, je voulais pouvoir participer à la vie de l’entreprise sur des flux métiers et aider à la prise de décision ; je me suis vite rendu compte qu’il manquait une corde à mon arc. J’ai alors postulé à plusieurs formations, avec succès, et j’ai finalement choisi le master ECOTIC de Télécom Bretagne (IMT Atlantique). Il faut le dire j’ai ADORE !

J’ai vraiment été séduit par la formation, celle-ci nous permet de consolider nos cursus scientifiques de départ à travers des cours d’harmonisation, des cours de statistiques ; aussi elle nous apprend à gérer et améliorer les différents ensembles du système d’information d’une entreprise. Avec tout cela il faut ajouter des cours spécifiques comme ceux d’anglais, de droit et de Business Intelligence.

L’équipe académique très réputée de Telecom Bretagne (IMT Atlantique) reste disponible et attentive à nos besoins, nous travaillons sur de nombreux projets, en groupe avec des élèves ingénieurs d’origines culturelles très diverses. Ce master nous forme en tout point à devenir des experts capable d’apporter leur science dans les SI d’entreprises, les aider à améliorer les flux métiers et à croitre.

Après ce master j’ai rapidement trouvé un emploi de consultant technico-fonctionnel chez CGI. Je travaille pour des clients de l’industrie du luxe, dans l’amélioration de leurs systèmes d’information logistique notamment dans les processus d’achat, de vente et de distribution. Je m’épanoui pleinement, je n’aurais certainement pas eu ce poste sans le master ECOTIC (aujourd’hui management de l’innovation, parcours management des SI et des données).

La seule difficulté reste sans doute la région, la Bretagne … avec son climat particulier… surtout quand on vient d’un pays chaud.

UE Transitions numériques : méthodes et outils de la conduite du changement

Cette UE aborde les outils utiles aux futurs ingénieurs conseil et manager. A travers des interventions en marketing stratégique, sociologie et acceptabilité, il s’agira d’appréhender les enjeux de changement que représentent les transitions numériques pour les organisations et les acteurs qui les animent. L’UV a pour objectif de présenter des outils méthodologiques mobilisables pour le conseil, l’audit et la mesure d’impact.

UE Stratégies d’innovation à l’ère du numérique

Cette UE aborde l’innovation et les transitions numériques, et les questions qu’elles posent à la société et aux organisations (exemple : « l’Uberisation » ou les réseaux sociaux d’entreprise). L’innovation est multifacettes, son analyse requiert des approches diversifiées, elle bouleverse le positionnement des entreprises et leurs rapports de force, le pouvoir et le rôle des acteurs, les modèles économiques, les propositions de valeurs, l’emploi…

À travers des interventions en économie, droit et sociologie, toutes orientées vers l’innovation, les techniques et le numérique, il s’agira d’appréhender les enjeux que représentent les transitions numériques à un niveau global.
Dans le travail personnel les étudiants utiliseront les deux MOOC existants au sein de l’IMT (« Innover en entreprendre dans un monde numérique » et « Comprendre l’économie collaborative »).

UE Fondement de l’analyse de données – Machine learning

L’UE vise à donner un socle théorique et pragmatique aux étudiants sur les concepts fondamentaux de la décision statistique et de l’apprentissage automatique (non supervisé et supervisé). L’UE propose deux visions complémentaires, l’une partant des données (data driven) et l’autre s’appuyant sur des modèles probabilistes (model driven). Le machine learning sera d’abord abordé sous l’angle de l’apprentissage non supervisé et de méthodes de réduction de dimension comme l’ACP, l’ACM et le clustering. L’apprentissage supervisé sera introduit à travers la théorie statistique de la décision et de l’estimation, qui inclut des approches paramétriques (Neyman-Pearson, classifieur de Bayes), non paramétriques (Parzen, k plus proches voisins) ou non métriques (arbre de décision).

Les étudiants mettront l’accent sur la méthodologie d’enquête en réalisant un projet de groupe concret, allant de la collecte (sondage) à l’analyse de données.

 

[emse-01409629] White paper. Companies of the future : the issues of digital transformation

Digital innovation is bringing a great deal of change to industry, the economy and society. Radical transformations are being seen in the way these fields are organized, in their products and uses. Institut Mines-Télécom has always had a very close and privileged relationship with the economic and industrial world. IMT plays a major role in research partnerships and innovation, and support for economic development. The Industry of the Future is a strategic priority for IMT in facing future challenges and accompanying companies in their transitions. As a founding member of the Alliance for the Industry of the Future, IMT’s unique position at the crossroads between industry and the digital world allows it to comprehend ruptures involving both the changes to processes and industrial management modes, and the digital tools involved. Although it is well known that a great deal of the potential effectiveness of digital technology lies in this joint transformation of our working methods and tools, the impact of this technology on the transformation of companies remains an active field of research. With vision and action based on the Training-Research-Innovation continuum, IMT is involved on all three levels of this major transition. As well as confronting the great challenges of more effective, safe, economical and flexible technologies, the Institute is extensively involved in this transition, imagining new organization models for companies, new products and services, new economic models, without forgetting the changing place of humans in industrial and organizational processes, along with new jobs and skills. This white paper, written under the supervision of Madeleine Besson, presents the current concern over the challenges of digital transformation for the company of the future. What will be the changes to companies’ processes and business models? How will the notion of value creation change? What impact will this transformation have on the role of humans in companies? These questions, along with other equally pertinent ones, are studied by experts at IMT, questioning the very notion of the company and the meaning of its traditional links (design, production, use, the customer, value…) To understand the impacts and formalize the challenges of research for the company of the future in a relevant way, we must have a solid grasp of digital transformation. Technical, economic, human and societal responsibility aspects must be analyzed in order to find the integrated, transversal approach, which is essential to relevant and effective reflection over this complex, multi-faceted matter. These reflections must also take an historical approach. In this respect, the "ecosystemic" analysis proposed by Thierry Isckia sheds light on the changes that digital technology has imposed, at the same time noting the importance of the strategic dimension. Regarding future changes, Godefroy Dang Nguyen suggests some transformational leads that the digital world offers, in particular the new forms of cooperation providing a source of significant change to the institutional framework. The question of entrepreneurship in 2050, asked by Daniel Kaplan, provides the opportunity to open the field of study to include the changes in the structuring element of a company in the face of ecological and environmental transition, as well as transgenerational transition. Climate change and the ageing population are challenging the traditional determiners of progress and well-being. Finally, this white paper questions the very idea of the company itself, and the meaning of all of the traditional links in value creation. It provides the curious reader with several entry points to understanding the challenges of digital transformation for the future company, and certain key areas for reflection on this matter, which keeps gaining in speed and intensity.
Source: Publications Nicolas Jullien

Wikipédia en quelques mots

Wikipédia, sixième site le plus visité mondialement, est probablement le plus grand projet de création numérique en ligne actuellement. Il a été initié en 2001 comme un projet support du projet Nupédia (voir l’article «Histoire_de_Wikipédia» dans Wikipédia), une encyclopédie en ligne rédigée par des experts et lancée par Larry Sanger et Jimmy Wales. Basé sur un Wiki pour permettre la rédaction collaborative d’articles, ouvert aux contributions amateurs et annoncé notamment sur Slashdot.org, un site d’information sur le logiciel libre, Wikipédia se développe rapidement (20000 articles pour le Wikipédia en anglais en septembre 2001, création de projets dans d’autres langues, dont l’allemand et le français en mars 2001). En 2002, le logiciel MediaWiki est créé pour supporter le projet, qui est géré par une fondation de droit américain depuis 2003 et qui a dépassé les 500000 articles pour le Wikipédia en anglais début 2004.
En 2015, il y avait environ 4000 contributeurs actifs, chaque mois, sur le Wikipédia en français, c’est-à-dire 4000 personnes qui ont fait cinq modifications, ou « edits », ou plus, dans le mois. Depuis sa création, en 2001, plus de 700.000 personnes se sont enregistrées sur le Wikipédia en anglais pour contribuer. Du côté de l’usage, les sites gèrent plus de 20 milliards de pages vues par mois (917 millions pour le Wikipédia en français), avec un nombre croissant de photos et autres documents non textuels (les photos stockées sont passées de 12 à 26 millions entre 2014 et 2015), tout en permettant l’évolution permanent du contenu (12,5 millions d’édits). Le modèle économique du projet repose donc sur le volontariat pour la production du contenu (motivation et caractéristiques des contributeurs), et sur les dons des utilisateurs pour le financement de l’infrastructure permettant la production de ce contenu (le logiciel wiki « MediaWiki ») et la diffusion de ce contenu (les serveurs et la bande passante). La maintenance du logiciel de production, les serveurs, et la bande passante ont coûté, sur l’année 2014-2015, environ 21 millions de dollars à la Wikimédia Foundation, qui gère ce projet, sur un budget total de plus de 50 millions de dollars (d’après ses bilans financiers).
Il faut approfondir les caractéristiques des contributeurs (qui contribue, et pourquoi ?), de la connaissance produite et des caractéristiques des utilisateurs. Le lecteur intéressé par le processus de production pourra consulter l’article « Wiki » de l’encyclopédie étudiée, ou la revue de la littérature consacrée à Wikipédia réalisée par Jullien (2012).
Caractéristiques des contributeurs. Une des caractéristiques principales des communautés épistémiques en ligne* est que la participation est volontaire et qu’elle ne conditionne pas l’utilisation, qui est anonyme. Si l’on suit l’analyse de l’économie classique, ce sont des conditions favorisant les phénomènes de passager clandestin, car participer ou non n’apporte pas de changement à l’utilité que l’on retire de l’usage du bien. Comme dans les autres communautés épistémiques, les motivations à participer à Wikipédia sont d’abord intrinsèques, pour ne pas dire égoïstes (Jullien, 2012) : défi à relever, passion pour la documentation historique, côté amusant, auto-formation. Les motivations sociales (se faire connaître ou reconnaître, interagir avec d’autres) ou « morales » (participer à la création d’une base de connaissance, mettre la connaissance à portée de tous) ne semblent pas expliquer l’entrée dans la contribution, même si elles peuvent être importantes pour ceux qui finissent par beaucoup s’impliquer et expliquent l’alignement entre compétences « professionnelles » et responsabilité dans le projet, notamment au niveau de la direction du projet. Les personnes qui sont au bureau de la fondation Wikimédia (le «board of trustees»), et qui participent à la définition de la stratégie de l’association, qui gère la marque, le site et les nouveaux projets, ont aussi de fortes compétences en informatique, ou en classement de l’information (sciences de l’information, de la communication, documentaliste, journaliste, informaticien). Finalement, ce qui fait une partie du succès du projet n’est pas tant d’avoir créé un système d’incitation à la participation, qui semble assez classique, mais d’avoir construit des règles et des filtres permettant d’organiser la contribution.
Les règles de la participation et de l’organisation du travail S’il n’y a pas de barrière à l’entrée (ni à la sortie d’ailleurs), un premier filtre à la participation est le niveau de motivation: dans la société de l’abondance informationnelle, où les sollicitations sont nombreuses, ne viennent que ceux qui ont la capacité à s’intéresser au sujet traité, et, pour les communautés épistémiques comme Wikipédia, de faire des contributions originales au projet, c’est-à-dire proposant une pièce de connaissance nouvelle. Dans la pratique, on constate aussi de nombreuses barrières « invisibles », au delà des sujets : sans capacité en informatique (tant en termes de matériel qu’en termes de maîtrise de l’outil), sans aisance dans la lecture et l’écriture, la plupart des projets en ligne sont inaccessibles. Ainsi, pour Wikipédia, le contributeur type est, d’après les enquêtes, un homme, de formation supérieure (licence ou plus), âgé de plus de trente ans (Dejean & Jullien, 2015). Wikipédia est une agrégation d’articles, construits sur le même format, avec les mêmes règles de base dans l’écriture (dont la vérifiabilité des faits, la neutralité des points de vues, la publication sous une licence ouverte), qui forment les « cinq piliers du projet ». Mais au-delà, les articles sont indépendants, leur existence et leur qualité dépendent de l’implication, donc de l’intérêt des contributeurs. Cela explique, en partie, que des articles de qualité très variable puissent cohabiter, et que certains domaines soient moins bien couverts que d’autres.
Qualité de la production et utilisateurs. L’évaluation de la qualité d’une œuvre ne peut se faire indépendamment de la définition de l’utilisateur : interviennent notamment le degré d’expertise (de profane à expert), la situation de l’utilisateur, qui cherche à produire de la connaissance ou simplement à la comprendre, et son intention vis-à-vis de l’information reçue, qui peut largement varier d’une collecte de renseignements factuels à de l’information ou de la recherche des références de fond (Lewandowski & Spree 2011). S’ajoute à cela, pour les sites en lignes comme Wikipédia, qu’il est difficile de connaître les utilisateurs, car les consommations (téléchargement, fréquentation du site) sont, pour la plupart, anonymes. Il n’y a pas, malheureusement, d’étude permettant d’évaluer la diffusion de l’usage de Wikipedia dans la population, qui serait, par exemple, basée sur l’étude des usages d’Internet par pays. Enfin, la qualité d’un produit, ici les articles, ou d’un champ de connaissance (la médecine), peut être évaluée par des mesures externes (comparaison avec d’autres produits, analyse par des experts), ou des mesures internes (ce que le projet considère comme un bon article, et qu’il labellise comme tel « article de qualité » ou « bon article »).
Ceci étant, la plupart des études, et surtout les plus récentes montrent que Wikipédia est aussi pertinent et juste (pas plus d’erreurs dans les articles) que d’autres sources, et beaucoup plus complet (1,7 million d’articles dans le Wikipédia en français, contre 0,1 dans l’Encyclopédie Universalis, par exemple) et, ce, que l’on se restreigne à un champ particulier (la formation des infirmières), que l’on fasse évaluer l’information disponible par des experts, ou que l’on réalise des comparaisons avec des ouvrages de référence. Elles montrent aussi que, quelque soit le référentiel choisi, une mesure fiable de la qualité d’un article est sa taille (le nombre de caractères) et, en deuxième lieu, le nombre d’édits, c’est-à-dire de modifications de l’article (Jullien, 2012).
En partenariat avec l’association Wikimédia France, nous avons réalisé deux enquêtes (en 2011 et 2015) auprès des utilisateurs du Wikipédia en français, enquêtes qui permettent, cependant, de se faire une idée des usagers et des usages. Les personnes ayant répondu (environ 16000 à chaque fois), et qui étaient, à plus de 80 %, françaises, sont plus jeunes que la moyenne des internautes, et beaucoup plus nombreuses à avoir une « profession » où la recherche d’information tient une place importante : les lycéens et étudiants (on retrouve l’effet d’âge), mais aussi les cadres, avec une grosse sous-représentation des ouvriers et des employés. Il y a, cependant, des signes de diffusion de l’usage, puisque, entre 2011 et 2015, la population des retraités, et plus généralement des plus de trente ans qui a répondu, est en forte augmentation.
Si l’on s’intéresse à ce que les personnes vont chercher sur Wikipédia, on constate deux choses d’après cette enquête : il y a plus d’usages personnels que professionnels, et les rubriques les plus consultées sont celles qu’on consulte dans un dictionnaire encyclopédique classique (personnalités, histoire et géographie, et, dans une moindre mesure, art et littérature, technologies et sciences). L’utilisation de Wikipédia reste proche de celle du Quid (qui en a été d’ailleurs une de ses premières « victimes ») ou d’un dictionnaire encyclopédique étendu, plus que d’une encyclopédie scientifique pointue. Et, plus généralement, comme l’a souligné Fallis (2008), la qualité de Wikipedia ne doit pas être évaluée en comparaison avec une encyclopédie non accessible (ou seulement dans des bibliothèques, pas toujours ouvertes, ou pour un coût très supérieur qui peut exclure une partie de la population), mais en tenant compte de la façon dont les gens recherchent de l’information aujourd’hui (en ligne). Wikipédia, par son existence et aussi la qualité de la connaissance à laquelle on accède, a amélioré l’accès à la connaissance. Cela n’empêche pas de soulever les problèmes posés par un potentiel monopole de ce site sur la production de la connaissance.
Un exemple de «commun informationnel. Il peut sembler paradoxal d’appeler des projets comme Wikipédia, des « communs ». En effet, leur production est accessible sans barrière à l’entrée, alors que les communs traditionnels (le plus souvent fonciers) sont caractérisés par la co-gestion par les utilisateurs d’un bien avec, souvent, un mécanisme d’exclusion pour ceux qui ne sont pas membres du « commun. Le cadre de Hess et Ostrom (2006), permet de décrire ces collectifs et les biens qu’ils produisent, et de lever néanmoins cet apparent paradoxe. Il distingue les caractéristiques du collectif, ou les « inputs » (caractéristiques des participants, motivations, « règles d’usage et de contribution », dispositifs techniques), qui encadrent la façon dont les gens interagissent (« l’ère d’interaction », ou le processus de production), conduisant à des « résultats » (la production).
Dans le cas Wikipédia, comme dans tous les projets de production de connaissance en ligne, si les « résultats » sont effectivement accessibles à tous, les règles de production et les comportements d’interaction font que, si chacun peut théoriquement participer à la production, n’importe qui n’y a pas accès. Il y a alors une « communauté » de développeurs, qui s’auto-sélectionnent (par leur motivation et leur capacité à rédiger un texte de vulgarisation scientifique, notamment), et qui présente des caractéristiques proches d’une organisation de production d’un « bien commun » informationnel (ou encore d’une communauté épistémique en ligne), et des utilisateurs de la production, avec peu de liens entre eux. C’est, d’ailleurs, une différence avec le logiciel libre*, où, notamment parce que l’utilisation est plus compliquée, il y a deux communautés liées : une communauté épistémique de production et une communauté de pratique (les utilisateurs), qui sert souvent de bassin de recrutement de nouveaux contributeurs pour la première communauté.
Finalement, pour renvoyer à la discussion sur les communs, servir les utilisateurs n’est pas l’objectif principal de ces communautés. Ce qui est important est d’intégrer les contributeurs et de faire fonctionner la communauté (la production du commun), c’est-à-dire que les participants continuent à créer et à améliorer les articles, selon la politiques et les règles fixées par la Fondation Wikimedia et les administrateurs des sites. Que cela serve au-delà (utilisation du bien public produit) est intéressant (recrutement possible de nouveaux participants, importance de la base installé quand concurrence entre standards, ego des participants), mais ce n’est pas le principal.
Le modèle « économique » de cette communauté repose sur deux piliers. D’une part, la contribution volontaire des participants, qui ont des motivations non financières pour la plupart. L’objectif de l’organisation est d’augmenter, ou au moins de stabiliser le nombre de ces contributeurs, sachant que plus il y a d’articles et de contenu, plus il est difficile de proposer des contributions. L’usage est financé par le don, mais les sommes restent modestes (20 millions de dollars représentent moins de dix centimes par utilisateur et par an). D’autre part, la base d’information est copiable. Si la fondation ne parvenait plus à maintenir le projet, des copies locales pourraient émerger. Comme pour les projets de logiciel libre, et dans un phénomène de rendement croissant d’adoption classique, la dynamique du projet est sa meilleure garantie de survie : tant que les informations sont mises à jour, les utilisateurs et les contributeurs ont intérêt à continuer à utiliser cette plate-forme.
Un des effets pervers possible est que ce projet acquiert le monopole de mise à disposition de la connaissance, notamment en direction du grand public. Déjà, Google propose, dès que possible, la page Wikipédia correspondant au critère de recherche, concentrant encore plus les consultations sur cette seule plateforme. Ce risque-là, celui de la pluralité des idées, est sans doute plus important, au moins à moyen terme, que le risque de disparition de Wikipédia.
Pour conclure, on peut dire qu’en tant qu’exemple de commun informationnel, Wikipedia a un fonctionnement classique, même si sa taille, comme son impact sur l’accès à la connaissance, sont, eux, hors du commun.
Repères Bibliographiques

Dejean S. & Jullien N., Big from the beginning: Assessing online contributors’ behavior by their first contribution, Research Policy 44(6) · July 2015.
Fallis, D. (2008). Toward an epistemology of Wikipedia. Journal of the American Society for Information Science and Technology, 59(10), 1662-1674.
Hess C. & Ostrom E., « Introduction: An Overview of the Knowledge Commons », in Hess C. & Ostrom E. (ed.), Understanding Knowledge as a Commons. From Theory to Practice, 2006, pp. 3-26.
Jullien N., “What We Know About Wikipedia: A Review of the Literature Analyzing the Project(s)”, 2012, http://ssrn.com/abstract=2053597
Lewandowski, D., & Spree, U. (2011). Ranking of Wikipedia articles in search engines revisited: Fair ranking for reasonable quality?. Journal of the American Society for Information Science and technology, 62(1), 117-132.

Source: publication blog Nicolas