dimanche 22 février 2015

A Web vision for Education

I had the chance to share and prepare this post with Crispin Weston. Honestly, Crispin has made more than 80 % of the job, but i'm quite proud to have modestly contributed to this vision.

This white paper has been done to convince W3C that Education should be a priority for the Open Web Platform.

I'm not sure we were successfull but this is a little stone to build this vision.

A white paper proposing key ed-tech priorities for the world wide web for the task force being run by W3C, the consortium responsible for the world wide web. 

The paper outlines what we see as the key priorities for the world wide web in the face of an emerging market for digital ed-tech.
The basic premises of the paper were accepted in a call last Friday and over the next two weeks we will be working on a paper to describe in greater detail the specifics of the next steps that we believe need to be taken. This will be intended to form the prospectus for a W3C Community Group, which anyone who is interested in taking this work forwards is invited to join.

The original paper is currently on the W3C wiki page for this group.

The current state of the ed-tech market 

There has been considerable recent interest in the potential of digital technology to transform education. While the OECD’s PISA reports have focused attention on the underperformance of many Western education systems, Massive Open Online Course (MOOC) platforms in the US have held out the prospect of scaling what have previously been regarded as elite courses, to make them accessible to motivated learners across the world.

There are now good reasons to believe that genuinely useful ed-tech is about to emerge. Mobile technology has recently made 1:1 device ratios attainable in the classroom, the cloud has made it easy to acquire and manage new applications, and touch screens have enabled the development of software that is intuitive to use. Recent improvements in HTML allow for the development of richly interactive online learning experiences. The power of modern technology to process big data, already being demonstrated in business environments, has the potential to help manage complex educational processes as well.

Against this background, W3C has convened a working group to consider how it can support these widely anticipated developments—because there is no reliable evidence that useful ed-tech has yet emerged. A 2012 government-funded meta-analysis by the UK’s University of Durham concludes that “the correlational and experimental evidence does not offer a convincing case for the general impact of digital technology on learning outcomes” (page 3).

We suggest that there are three key barriers to the emergence of a dynamic ed-tech market:

- The lack of interoperability of systems and content that would allow different sorts of instructional software to work together in an integrated environment.
- The lack of discoverability of innovative new products. The institutional conservatism of many state-run education systems, which are often resistant to innovation and uncomfortable with the use of data as a management tool.

We believe that W3C is ideally placed to help to remove the first and second of these barriers. It has both the standing and the technical expertise required to create authoritative standards. As the steward of the world wide web, it is closely identified with the benefits of connectivity. The sense of moral purpose often associated with the world wide web gives it the stature required to lead an important initiative for the improvement of global education. At the same time, it will need to work with governments that are prepared to address the institutional conservatism to be found in their own formal education services.

The requirement for ed-tech Education technology is not just about publishing. It is a common aphorism amongst teachers that “we learn by doing”. From this perspective, the role of the teacher is to design instructional activities that are appropriate to a given set of educational objectives, to motivate students to undertake those activities, to provide feedback on their performance, and to manage their progression from one activity to the next.

Digital technology has proved well adapted to managing complex processes and transactions in other businesses. Analytics software has shown that it can make sense of complex datasets. Digital games routinely support the sorts of rich interactivity that education requires at the instructional level. Yet none of these paradigms have been widely implemented in education, which still depends on the uncertain craft of the individual teacher, in a profession which in many subjects faces a chronic undersupply of well-qualified staff.

Most education technology to date has concentrated on the dissemination of information and on assuring the memorisation of such information through simple multiple choice tests. There has been recent interest in the potential of social networking technology, though it is not clear that this will make a significant contribution in schools (K-12), where (in contrast to professional development) students have limited expertise in the subject being studied.

Little has been done to develop education-specific software which: at the instructional level supports purposeful interactivity (both on and off the computer) in a manner analogous to digital games; at the learning management level, controls assignment, the sequencing of activities, reporting, analytics and accreditation. Good data interoperability, especially between the learning management systems and the instructional content, is an essential prerequisite for the successful development of either class of software.

Such interoperability standards do not currently exist. 
If they are not developed soon, it is likely that control of an emerging ed-tech market will be captured by proprietary platforms.

SCORM: a lesson from the past 

The Shareable Content Object Reference Model (SCORM) was a collection of informal standards published by Advanced Distributed Learning (ADL), a unit of the US Department of Defence.

Two significant versions were produced: SCORM 1.2 in 2001 and SCORM 2004. The standard included the following components. Content packaging, a specification developed by IMS Global Learning Consortium (IMS GLC), comprising an aggregation of zipped content.

The compressed folder included an XML manifest file, which provided a “substrate” for other types of metadata (such as LOM and Simple Sequencing).

Learning Object Metadata (LOM).
A metadata format standardised as IEEE 1484.12, containing classification information deemed relevant to education. Computer Managed Instruction (CMI): a data model inherited from the Aviation Industry Computer Based Training Committee (AICC), specifying the runtime data that a Shareable Content Object (SCO) might want to read and write to and from the LMS by which it had been launched.

This included contextual information read from the LMS at launch, and learning outcome data reported back to the LMS at termination.

The SCORM API, a JavaScript API providing the means by which runtime data was passed. Technical metadata, which in the case of SCORM included a single field in the content packaging manifest called ScormType. This could equal either “sco” (meaning the webpage used the CMI runtime) or “asset” (meaning it did not). Simple Sequencing, an IMS GLC specification which allowed the SCOs contained in the package to be adaptively sequenced by the LMS.

SCORM achieved significant global traction in the education world between 2001 and about 2006. After this, interest waned for the following reasons. Legal disputes between ADL and IMS GLC over intellectual property rights restricted the development of the Content Packaging specification.

Developments in browser security rendered the JavaScript API obsolete. Simple Sequencing failed to provide robust, plug-and-play interoperability. The CMI runtime provided no support for multi-player interactions. The CMI runtime data model was not extensible and did not, for example, support the transfer of creative product (such as essays or solutions to problem).

There was no attempt to represent learning objectives (important both for adaptive sequencing and the reporting of learning outcomes) in a manner that were comprehensible outside the context of a particular course. SCORM was frequently specified in government procurements in circumstances which encouraged suppliers to produce the simplest possible implementations, generally avoiding use of the runtime. This undermined the reputation of the SCORM brand.

Recognising that it was not well placed to steward a de facto global ed-tech standard, the US DoD attempted in 2008 to transfer ownership of SCORM to a new non-profit organisation called LETSI.
A conference was held to which over 100 white papers were submitted with proposals for improvements to the specifications. However, the transfer of ownership was prevented by legal challenges by IMS GLC, which owned IP rights in Content Packaging and Simple Sequencing.

The only substantive development to emerge from LETSI’s work was TinCan, also known as the Expererience API (xAPI). Based on a LETSI prototype, this project was subsequently funded by ADL. TinCan updated the SCORM API to provide a modern transport protocol based on Web Services. It includes only a rudimentary data model and does not cover launch, metadata description or the sequencing of content.

Recommendations for action by W3C 

 W3C is well placed to create the “next-generation SCORM” which the LETSI initiative failed to provide in 2008. Such an initiative would address education’s requirement for purposeful activity integrated with analytics and process management. Such an initiative would fall within the scope of the world wide web, so long as this is understood as a vehicle for providing data connectivity and not merely a medium for the distribution of content. Such a service for connectivity must not seek to restrict the type of applications it supports. It must be accessible to desktop and mobile apps as well as to web apps. This should not be seen as problematic because the key to preventing the capture of an emergent ed-tech market by proprietary interests is open runtime data, not necessarily open file formats.

We recommend that such a W3C initiative should adopt the transport mechanism provided by TinCan, adding the following components to complete a viable standards platform for education.

A simple but consistent method of publishing metadata for learning content, supporting both discoverability and the declaration of runtime functionality. A data model description language which will enable supplier communities to specify new data structures in a consistent and extensible manner, allowing for the development of new metadata and runtime data models in a timescale that mirrors product innovation. A new specification for the adaptive sequencing of learning content. A specification for the machine-readable description of learning objectives and curricula.
A machine-readable data handling description language, allowing for the specification of procedures for data protection and privacy.

Such a specification will allow governments and other institutions to produce consent forms, regulatory standards and legislative instruments in ways that software, sold on an international market, can easily understand and support. The precise definition of such procedures would also support an informed public debate on these issues.

Without greater clarity in this area, it is likely that the sharing of educational data will run into serious political obstacles. Taken together, these specifications would form a coherent and viable platform to ensure the interoperability of educational data. Subsequent work could deliver convergence with open content formats, such as EDUPUB or IMS GLC’s Question and Test Interoperability (QTI), which can be supported on a case-by-case basis. When ed-tech achieves significant impact on learning outcomes, the need to ensure equitable access to those technologies will become increasingly urgent. Viable technical solutions to the problem of accessibility will depend on the ability of management systems to pass student preference data to instructional software.
Such a solution will be enabled by the educational data interoperability platform outlined above.

Alongside such technical work, W3C will need to seek partnerships with interested Departments of Education, which will have an important role in encouraging demand within their various jurisdictions for innovative and effective education technology that supports open data standards. 

Crispin Weston & Pierre Danet 17 February 2015

jeudi 19 février 2015

La France cale en numérique

Pour en avoir souvent parlé avec mon ami Nicolas, il y a souvent en France une trop grande confusion entre transformation numérique et projet d'informatisation. La confusion est grave puisqu'elle amène à penser chez certains de nos dirigeants, dans le secteur public comme privé, que nous sommes en cours de transition alors que nous ne sommes qu'en train de dérouler de purs projets informatiques traditionnels, tout à fait respectables par ailleurs, mais qui ne sont juste que des projets informatiques.

Cette étude récente est ainsi assez inquiétante. Une université a conçu un indice digital fondé sur des critères d'offre, de demande, d'infrastructure et d'innovation qui range la France dans la catégorie des pays qui calent, c'est à dire des pays qui ont obtenu déjà un bon score mais ne progressent plus rapidement. Tout le monde a engagé son voyage numérique mais les vitesses sont bien différentes. Les modèles de Singapour, Hong Kong, Israël et d'Estonie sont gagnants, il serait d'ailleurs intéressant de rapprocher les résultats de cet indice avec ceux du PISA.

En quoi consiste donc une transformation numérique ? En quoi diffère-t-elle d'une informatisation ?

Une transformation numérique est d'abord une mutation des relations entre une entreprise, organisation et ses clients, usagers. C'est en général dans le sens d'un rapprochement très fort, par la proximité que permettent les nouveaux usages numériques (Réseaux Sociaux, CRM). L'interface utilisateur, tout du moins sa qualité, est ainsi absolument critique. La relation avec l'individu doit être aisée et extrêmement fluide. C'est aussi valable pour les relations avec des collaborateurs. Un projet informatique peut lui inclure une dimension ergonomique qui n'est pas forcément obligatoire.

Une transformation numérique est aussi fondée sur un usage agile et rapide et une intégration des dernières poussées technologiques (Nodes JS, Meteor, Mongodb,...). Elle va au plus vite, au plus puissant et au plus récent. En revanche, un projet informatique ne va pas se baser forcément sur ce qu'il y a de plus récent mais sur ce qu'il peut y avoir de plus fiable ou de plus sûr. La Transfonum va directement sur des solutions type Cloud, standardisées, sans hésiter sur de l'open source et en privilégiant l'usage. 

La transformation numérique est dans un mode très collaboratif où l'on recherche les expertises internes ou externes le plus efficacement possible. On se met à plusieurs pour régler un problème vite et de manière agile, grands et petits, et en travaillant bien sûr en coopération. Un projet informatique reste un projet, parfois sous-traité, avec des collaborations entre utilisateurs et des développeurs mais selon des méthodologies normées et anciennes. 

Une transformation numérique inclut mécaniquement une refonte de processus. Ce qui n'est pas forcément le cas d'un projet IT, qui peut allègrement reproduire un existant même dans ses dysfonctionnements les plus évidents...

La confusion est fréquente ! Le Digital Washing est en cours (Je revendique l'invention du concept par homothétie avec le Green Washing), ce qui est encore plus inquiétant. Car la tentation de ranger de purs projets IT ou Web en soi disant projets numériques est une tendance du moment notamment en raison des agences de communication car il faut s'agiter. Mais si le Digital Washing est en cours, vu les projets, cela risque de se transformer vite en Digital Bashing pour la France.

Bon titre d'un prochain Post : Evitons le Digital Washing pour éviter le Digital Bashing !

jeudi 12 février 2015

Papyrus numérique cc @hipparkhos


Un prototype du CNAM, Labo Cedric ILJ, sur la base d'une lecture scroll down qui élimine la notion de page. Marrant en termes d'ergonomie.

 Une autre vidéo bien meilleure !

Digital Roll Simulator from Clément Pillias on Vimeo.

mardi 10 février 2015

Prêt pour #RadioBlogueurs2015 ! cc @lolobobo

Grâce à David Blot, j'ai découvert ce morçeau de 23 minutes d'Acid Folk arméno turc. Un truc de malade.

Je synthétise : 

"Live session of Insanlar, recorded at Mini Müzikhol performance in Istanbul.Lyrics are adapted from poems by 17th century poet musician Kul Nesimi (Ben Melamet Hirkasini) and 16th century predecessor Pir Sultan Abdal (Otme Bulbul).
Kime Ne basically says "mind your own business, this is my life"

Nouveau Board de l'IDPF

Après une période Electorale d'une quinzaine de jours et dans un esprit purement démocratique, l'IDPF a procédé à l'élection de 7 sièges de son Conseil d'Administration.

Voici le Communiqué de Presse d'aujourd'hui :


IDPF Members Elect Two New Directors, Return Four Incumbents to Board

FEBRUARY 9, 2015
Member organizations of the International Digital Publishing Forum (IDPF) have elected six board members, including two new directors and four re-elected incumbents. New directors include Graham Bell (EDItEUR) and Eoin Noble (Safari Books Online). Incumbent directors re-elected in this cycle include the elected Board President, George Kerscher (DAISY Consortium) as well as Garth Conboy (Google), Pierre Danet (Hachette Livre) and Cristina Mussinelli (Italian Publishers Association). IDPF Board members serve two-year terms, with annual elections for approximately half of the 14-member board. Reflecting the increasing globalization of the IDPF membership and the digital publishing industry, this election marks the first time since the inception of IDPF that a majority of the elected Board members are located outside North America. "
C'est effectivement encore un signe et une preuve que l'IDPF se tourne vers le village global puisque une majorité des membres élus est dorénavant localisée en dehors d'Amérique du Nord. Peut-être un signe historique dans l'évangélisation de l'epub3 ! 
Comme dit sur twitter, je suis très honoré d'avoir été réélu et heureux de continuer à servir au sein de ce Board pour l'interopérabilité et l'universalisme de ce format.

dimanche 8 février 2015

La transformation numérique provoque-t-elle des Burn outs ?

Hier, je discutais avec une connaissance, cadre d'une grande entreprise en transformation, dont son entourage craint qu'il ne soit en Burn Out.

Je me suis demandé en l'écoutant si certaines entreprises françaises conscientes de leur retard n'avaient pas décuplé de pression sur leurs salariés pour rattraper leur retard.

Il y a au moins trois phénomènes à décrypter ici.

Le premier est celui du déluge numérique qui crée une forme d'addiction pour certains salariés en permanence connectés à leur entreprise. Ce que l'on appelle plus communément les "workalcolhics". Ce phénomène est bien décrit dans cet article du Nouvel Obs , mais il s'agit d'un effet collatéral des outillages digitaux dans une logique de pression des résultats. Il ne s'agit pas d'une conséquence directe de la transformation numérique. Il s'agit plutôt d'un phénomène RH et d'ailleurs souvent confondu négativement avec la transformation numérique.

En écoutant mon interlocuteur, j'avais plutôt l'impression qu'il s'agissait pour lui d'un problème de pertes de repère. Ils se sentent à l'Ouest. En effet, ils ne savent plus dans sa boite ce qui est prioritaire et ce qui ne l'est pas. Ce qui fait qu'on a une sensation de bruit permanent sans vraiment identifier les réelles priorités. Au début d'une transformation numérique, on est effectivement assailli de toute part par des possibilités technos sur tous les domaines. Des hordes de start up vous envahissent, des infos permanentes sur plein de trucs sans importance, des tendances technologiques tout azymut, des tonnes d'emails, des centaines de projets et prototypes possibles.

Si l'entreprise n'offre pas un canevas sélectif de priorisation (Tiens, jolie expression à conserver) pour ses employés, ils peuvent définitivement se perdre.

Le troisième phénomène est lié à la qualité. Le numérique suppose de dégrader et d'aller vite. Or un salarié traditionnel n'est pas prêt à cela. C'est ce qu'on appelle l'agilité dans le domaine, faire du quick and dirty. Je pense que c'est d'ailleurs une solution pour la personne avec laquelle je discutais. Il ne faut pas hésiter à dégrader pour accélérer. Autrement, de toute façon, c'est impossible !

vendredi 6 février 2015

Le Graal de la web app

Un échange récent et tout à fait évocateur de l'état moyen en France des DSI m'incite à zoomer sur une tendance technologique aujourd'hui incontournable.

En informatique, une application web (aussi appelée web app, de l'anglais) est une application manipulable grâce à un navigateur web.

De la même manière que les sites web, une application web est généralement placée sur un serveur et se manipule en actionnant des widgets à l'aide d'un navigateur web, via un réseau informatique (Internet, intranet, réseau local, etc.). Les messageries web, les systèmes de gestion de contenu, les wikis et les blogs sont historiquement des applications web.

Les moteurs de recherches, les logiciels de commerce électronique, les jeux en ligne, les logiciels de forum peuvent être sous forme d'application web. C'est une tendance croissante.

Les applications web font partie de l'évolution des usages et de la technologie du Web appelée Web 2.0.

Finis les clients lourds et les installations sans fin, finis les disques durs locaux et les incompatibilités incessantes des matériels et logiciels du poste de travail, tout s'exécute sur les serveurs. Paradoxalement, c'est le minitel qui a peut être été la première web app des informaticiens régionaux de l'étape.

Bonjour enfin ! aux apps universelles qui s'exécutent sur Desktop, Laptop, Tablettes et autres Phablets de la même façon.

Deux hyatus néanmoins :

=> La dispersion des navigateurs. Vaut mieux prendre un IE10 qu'un IE 6 par exemple.
=> Le travail du W3C est loin d'être fini, tout n'est pas spécifié.

Il suffit de consulter cette contribution exhaustive des travaux en cours du W3C pour se rendre compte qu'il y a encore du boulot : http://www.w3.org/2015/01/mobile-web-app-state/. Ce lien est fondamental et exhaustif.

Ce post est aussi ennuyeux mais nécessaire. Il est temps de basculer dans une ère nouvelle pour les DSI : API, web services, Web apps, Responsive Design, Reading Experience et j'en passe encore des fraîches et des pas mûres. Je parlais des tendances technologiques.

jeudi 5 février 2015

La Tranformation numérique doit suivre le modèle Estonien !

Mon ami, Nicolas, qui est un véritable Go-Giver qui s'ignore, publie des suites de billets fort intéressants sur l'impérieuse transformation numérique.

L'ensemble de ces dialogues, qui ont une certaine influence sur les événements, m'impose de me documenter à toute vitesse, sollicité de toute part, que je suis, sur le sujet.

Et j'ai ainsi découvert le modèle estonien grâce à cet article.

Je ne vais que le citer pour compléter notre réflexion.

"Le premier levier peut paraître étonnant, mais c'est en déployant une conversion numérique par le haut, en formant les décideurs politiques et les hauts-fonctionnaires que l'Estonie a su tirer son épingle du jeu. Des cours de design thinking sont, par exemple, dispensés dans les directions administratives. Le but est de multiplier les initiatives et les sensibilisations auprès des élites pour en faire de « véritables locomotives » de cette transformation."

L'Estonie est devenue ainsi une "start up nation".

Autre facteur : "du fait de son passé l'Estonie a dû faire table rase pour repartir de zéro. Une approche qui a conféré au petit pays de l'Europe du Nord une adaptation très agile et innovante aux technologies numériques."

Exactement ce que je pense et recommande ! C'est dingue ! Vive le modèle Estonien.

lundi 2 février 2015

La déconnexion des Elites cc @jegoun

Sur le sujet qui n'a occupé tout le week end que nous, il faut absolument lire ce livre.

Je suis en plein dans sa lecture et pour le moment, je suis plutôt d'accord.

Par exemple, on peut y lire des citations fort justes comme "l'absence de compétences numériques est une nouvelle forme d'illettrisme" ou "Quand on maîtrise la technologie, on est plus puissant..... cela est vrai depuis la maîtrise du feu".

Juste une première réflexion, je ne limiterai pas ce phénomène qu'à internet. Il n'y a pas que l'Open Web Platform (OWP au sens W3C) qui soit diruptive mais l'ensemble des technologies qui sont issues des progrès de la loi de Gordon Moore. Donc les plateformes d'apps, les bases no SQL, les nouveaux outils de dév (Python, ROR), les Hadoop et consors, les nouveaux hardwares.
Pas seulement http, html, css, xml et consors...
Mais cela ne change rien à l'analyse.

dimanche 1 février 2015

Reste calme, le déluge numérique arrive

@Jegoun a glissé sur le terrain institutionnel alors que l'origine des débats était sur la société. C'est un peu normal, c'est un blogueur politique, qui plus est, de gouvernement.

Ce débat intéresse peu de monde, nous étions deux à en parler. Pourtant, des livres en parlent, notamment celui-ci, tout récemment paru et qui est sur ma table de chevet.

Sur l'aspect institutionnel, j'évacue le débat rapidement en confirmant l'intérêt d'un CNN, forme de Conseil d'Etat du Numérique. Pour une fois qu'un dispositif passe la transition démocratique, il ne faut pas jeter le bébé avec l'eau du bain. Le gouvernement peut ainsi poser des questions ou écouter des suggestions. D'autre part, il faut un grand ministère du numérique de premier niveau avec plus de moyens comme un lien hiérarchique sur toutes les DSI, une agence technologique comme d'ailleurs c'est fait en Corée du Sud. Il faut aussi réformer les programmes de subventions en arrêtant de subventionner des expérimentations sans fin et en s'orientant enfin vers de l'aide aux écosystèmes sur des produits finis. C'est fondamental.

Il n'en reste pas moins que la France collectivement décroche, peut-être parce que ses élites décrochent ou aussi peut-être parce que l'on reste accroché à nos vieux réflexes. @Jegoun a raison d'alerter !

Internet et le web sont partout, pour les machines à café, pour les tickets restaurants comme pour les djihadistes. Elle a raison, Axelle Lemaire, il faut se réveiller. Il n'y pas qu'internet qui soit partout, il y a aussi les plateformes d'apps autour d'iOS et Androïd. Les 3 plateformes sont incontournables. Il faut peut être aussi en constituer une quatrième pour ne pas dépendre d'autres. Il faut favoriser l'émergence rapide de Clouds Européens aussi.

Maintenant il faut clairement orienter tous nos secteurs économiques vers des innovations de services et de produits ou de process basées sur des technologies numériques dans une optique de rapidité.

Il est temps d'accepter la Loi de Moore qui a été inventée et constatée depuis longtemps déjà. Il suffit de regarder l'évolution numérique du visage de Lara Croft pour le constater. Ce n'est qu'un corollaire !

Il faut aussi accepter cette réalité et définitivement et arrêter de confier des missions numériques à des consultants informatiques, même bien recrutés.  C'est ce qu'on appelle le NEW IT : rapidité, agilité, sclabilité, cloudabilité et on fonce en prenant le lead sur business par la vitesse. La solution est simple et en même temps très compliquée. Vu d'où l'on part, la conduite du changement est significative.