L’édito de GNU/Linux Magazine n°212 !

Aujourd’hui nous n’avons plus à défendre le logiciel libre avec autant d’ardeur qu’il y a quelques années. Le logiciel libre est rentré dans les mœurs (même Microsoft propose des produits open source). On pourrait donc se dire que la « guerre » est gagnée et que nous pouvons désormais nous reposer sur ces batailles durement gagnées. Mais ne serait-ce point une erreur ? Lire la suite

La préface du hors-série spécial Machine Learning !

Avec l’explosion du nombre de données disponibles, il faut trouver des méthodes efficaces de traitement pour parvenir à en faire émerger des connaissances. En effet, posséder des milliards et des milliards de données dans différents domaines n’a strictement aucun intérêt en soi si l’on est incapable de les faire « parler », d’établir des relations entre elles ou des inférences. Si nous prenons l’exemple de la biologie, à quoi bon posséder des génomes séquencés si nous nous arrêtons à leurs séquences de nucléotides ? Cela ne nous renseigne en aucune manière sur le fonctionnement de l’organisme étudié. Il faut pour cela passer par les acides aminés, les gènes et leur organisation sur le génome, les protéines, leur structure et leur fonction, etc. Et lorsque les données croissent drastiquement, il n’est plus question d’annotation manuelle et d’expériences (si ce n’est pour valider des hypothèses), il faut un outil informatique puissant qui va aider à faire des prédictions. Cet outil, utilisé par le data scientist (l’expert scientifique chargé de l’analyse de données), peut être le machine learning, thème de ce guide. Lire la suite

L’édito de GNU/Linux Magazine n°211 !

Nous vivons dans un monde où nous sommes submergés de données qui nous parviennent de toutes parts. Un traitement manuel n’est plus envisageable et il faut donc analyser ces données de manière automatique en utilisant des techniques de plus en plus pointues (machine learning, deep learning, etc.). Néanmoins, la technologie ne peut nous mettre à l’abri de l’effet « Hans le malin » (https://fr.wikipedia.org/wiki/Hans_le_Malin). En effet, il est très facile de tirer de données de qualité (recueillies correctement, propres, etc.) absolument n’importe quelle conclusion qui, en général, ira dans la direction souhaitée. Pour mettre en garde contre ce phénomène, deux enseignants de l’University of Washington, Carl Bergstrom, professeur du département de Biologie et Jevin West, professeur assistant de l’Information School (https://ischool.uw.edu/), ont eu l’idée de lancer une initiative nommée « Calling Bullshit » (expression anglaise que je me garderai de traduire et qui permet de signifier son désaccord à une autre personne). Cette initiative prend la forme d’un site internet (http://callingbullshit.org) sur lequel on peut trouver : Lire la suite

L’édito de GNU/Linux Magazine n°210 !

J’ai installé un Windows…

Oui, vous avez bien lu et je n’en suis pas fier : j’ai installé un Windows !

Pourquoi, me demanderez-vous. Eh bien cédant à la pression de mes enfants souhaitant jouer aux jeux de dernière génération tels que StarCraft ou Age of Empires 2, je me suis dit que c’était sans doute la solution la plus simple et que j’allais repasser leur ordinateur en double boot. Il est vrai que ces jeux fonctionnent très bien sous Wine, mais pas StarCraft remastered et il y a des problèmes de réseau avec Age of Empires 2 (de plus la version remastered ne devrait pas tarder à sortir et ne fonctionnera certainement pas elle non plus). Je me suis donc dit que l’on n’était guère regardant sur le système d’exploitation d’une console de jeu et pourquoi ne pas considérer la partition Windows comme telle ? J’ai donc pris mon courage à deux mains et j’ai installé Windows, certes pas l’un des plus récents, un Windows 7 qui était fourni avec les machines. Lire la suite

La préface du guide pour sécuriser votre infrastructure Linux !

Dans un monde où nous n’envisageons pas de pouvoir nous passer de réseau ne fusse que quelques secondes, il devient essentiel pour tout un chacun d’avoir un minimum de connaissances en sécurité. Si vous êtes administrateur système/réseau, cela coulera de source pour vous. Mais si vous êtes développeur, vous penserez peut-être à tort que cela ne vous concerne pas. Pourtant, la sécurité de votre infrastructure Linux ne doit pas vous laisser indifférent ! Ce hors-série vous permettra d’aborder de nombreuses notions de sécurité fondamentales et d’accroître votre savoir. Lire la suite

L’édito de GNU/Linux Magazine n°209 !

Python, on aime ou on n’aime pas, mais le langage ne laisse pas indifférent. Il y a les fans, ceux qui ne jurent que par ce langage et qui vont jusqu’à l’extrémisme en oubliant tous les autres langages qui ne sont pas pour autant à jeter à la poubelle et il y a les opposants farouches, eux aussi sombrant souvent dans l’extrémisme et dénigrant un « pseudo-langage » qui n’est même pas compilé et qui envahit de plus en plus les magazines et les articles sur le net. Lire la suite

L’édito de GNU/Linux Magazine n°208 !

Ce mois-ci, je voulais revenir avec vous sur la manière dont nous nous exprimons, nous, informaticiens pour communiquer, non plus avec des machines, mais entre nous. Si des règles existent pour les ordinateurs, de manière à ce que l’information leur parvienne sans possibilité de compréhension approximative (et donc sans interprétation possible), il en va de même du français et, comme le disait Boileau en son temps : « Ce qui se conçoit bien s’énonce clairement. Et les mots pour le dire arrivent aisément. ». Tout comme un disque n’est pas un cercle, un langage de programmation n’est pas un langage de description ! Encore récemment un étudiant me parlait du langage html comme d’un langage de programmation or, par définition, un langage de programmation contient des structures conditionnelles et des structures de boucles… qui sont absentes du html comme du LaTeX, etc. Il ne s’agit donc pas d’un langage de programmation, mais bien d’un langage de description, permettant de spécifier comment structurer un document, la nuance est importante ! Lire la suite

Découvrez la préface de notre hors-série spécial VPN !

Au cours des trois dernières décennies, la progression de l’informatique et surtout la nécessité grandissante de devoir garantir une interconnexion des machines ont donné lieu à de nombreuses évolutions logicielles comme matérielles. Les premiers réseaux locaux étaient relativement lents ; avec 1 Mbps pour du 3+Open, 4Mbps pour du Token-Ring voire 10Mbps pour de l’Ethernet, nous sommes bien loin des 10Gbps qui commencent à être disponibles aux particuliers. De plus ces réseaux transportaient simultanément plusieurs protocoles, NetBIOS, IPX/SPX ou TCP/IP pour ne nommer que les plus répandus. À cette époque, le rôle des administrateurs systèmes était surtout de faire en sorte que tout cela fonctionne bien en local et le moins mal possible quand il fallait interconnecter des bâtiments ; la sécurité des données ne venait qu’en dernière position, et encore… Depuis, tout ceci a progressé et les priorités ont bien changé. Les professionnels ont depuis longtemps mis en place des tunnels chiffrés pour interconnecter les plateformes et pour relier les postes itinérants aux services centraux. Lire la suite