Linux (fr)
-
L’heure du test — fork 1 — Void (Linux)
(Dépêches LinuxFR)
Voici un tour d’horizon d’une distribution peu connue mais néanmoins intéressante : Void (Linux) !
Void est une distribution indépendante, créée de zéro (from scratch, pas une divergence de Debian ou autres). Elle est développée par une communauté de volontaires et vous pouvez facilement y contribuer via ses dépôts sur GitHub. C’est une distribution avec mise à jour en continu (rolling‐release), tournée vers les ordinateurs de bureau et qui se veut légère et performante.NdM. : Cette dépêche est inspirée par L’heure du test — épisode 1 — NixOS postée par gusterhack. Si vous aussi vous voulez parler de votre distribution ou logiciel libre préféré, n’hésitez pas.
- lien n°1 : The Void (Linux) distribution
- lien n°2 : L’étiquette « test » sur LinuxFr.org
- lien n°3 : La catégorie « Distribution » sur LinuxFr.org
- lien n°4 : L’heure du test — épisode 1 — NixOS
- lien n°5 : Wikipédia : Void Linux
Sommaire
- La distribution Void
- Installation et configuration
- Le système d’initialisation runit
- Le gestionnaire de paquets xbps
- Écrire et soumettre des paquets
- Conclusion
La distribution Void
L’aventure Void Linux a commencé en 2008 lorsque Juan Romero Pardines, un ancien mainteneur de NetBSD voulait tester son gestionnaire de paquets xbps. Depuis, elle a grandi pour avoir tout ce qu’il faut. Le système de base est totalement libre, dépourvu de blobs binaires venus des constructeurs. Les utilisateurs disposent cependant du dépôt non‐free pour installer des bouts de code propriétaires.
D’un point de vue utilisateur
Void est une distribution avec mise à jour en continu (rolling‐release), orientée bureau et qui se veut légère et performante. Elle se destine principalement à des utilisateurs de niveau intermédiaire ou avancé et peut être conseillée si vous voulez :
- avoir des logiciels toujours à jour ;
- ressusciter une vieille machine ;
- développer en utilisant plein de bibliothèques récentes ;
- utiliser une distribution avec une approche moderne (gestion des paquets, système d’initialisation…).
En revanche, Void n’est pas à conseiller si vous cherchez :
- une distribution ultra simple à installer et à configurer ;
- une logithèque ultra fournie ;
- une distribution ultra stable qui doit tourner sans redémarrage pendant dix ans.
D’un point de vue technique
Void est une distribution indépendante, créée « from scratch » (pas une divergence de Debian ou autres). Elle est développée par une communauté de volontaires et vous pouvez facilement y contribuer via ses dépôts sur GitHub.
Void est disponible pour les architectures x86 et ARM, ainsi que compilé avec glibc (la bibliothèque C de GNU) ou avec musl-libc (une alternative plus légère à glibc).
Void est une rolling‐release, c’est‐à‐dire que le système et les paquets sont mis à jour en continu ; il n’y a pas de « version » de la distribution. Void utilise son propre gestionnaire de paquets, xbps, qui est très similaire aux classiques apt, dnf, pacman et autres. Il y a un dépôt officiel ainsi qu’un dépôt « non‐free » et il est relativement facile de faire ses propres paquets.
Enfin, Void utilise par défaut LibreSSL (l’alternative à OpenSSL développée suite à la faille de sécurité Heartbleed) ainsi que le système d’initialisation runit (alternative à systemd).
Installation et configuration
L’installation de Void est très classique et bien décrite dans la page Installation du Wiki :
- on télécharge une image ;
- on amorce le système sur l’image et l’on arrive sur un shell ;
- on se connecte en root (mot de passe : « voidlinux ») ;
- on peut passer le clavier en français avec
loadkeys fr
et voir la doc avecAlt
+F8
; - on lance l’installeur avec
void-installer
; - on règle les classiques configurations et partitionnement, puis on lance l’installation ;
- on redémarre sur le système installé et l’on termine la configuration comme décrit dans la page Post‐installation du Wiki.
Le système d’initialisation runit
Void utilise runit pour initialiser le système et gérer les services, ce qui en fait l’une des rares distributions actuelles à ne pas utiliser systemd (sans entrer dans le débat pro ou anti systemd). À l’usage basique de tous les jours, runit se révèle vraiment facile et rapide ; voir la doc runit dans le Wiki.
Activer ou désactiver des services
Les services disponibles sont dans
/etc/sv/
. Pour activer un service, il suffit d’ajouter un lien symbolique dans/var/service/
. Par exemple, pour activer sshd :# ln -s /etc/sv/sshd /var/service/
Pour désactiver un service, il suffit de supprimer le lien symbolique correspondant, dans
/var/service/
. Par exemple, pour désactiver sshd :# rm -r /var/service/sshd
Gérer des services
L’utilitaire
sv
permet de démarrer (start), d’arrêter (stop) ou d’interroger (status) un service. Par exemple, pour interroger sshd :# sv status sshd run: sshd: (pid 775) 17011s
Le gestionnaire de paquets xbps
La gestion des paquets est expliquée en détails dans la page xbps du Wiki. À l’usage, xbps est vraiment rapide (en même temps, ça vaut mieux car le système est en rolling‐release et il y a des mises à jour tous les jours).
Fonctionnalités de base
Installer un paquet (par exemple le client IRC hexchat) :
# xbps-install hexchat
Chercher un paquet parmi les paquets disponibles dans les dépôts :
$ xbps-query -Rs hexchat [*] hexchat-2.12.4_2 A GTK+ based IRC client successor of Xchat [-] hexchat-lua-2.12.4_2 A GTK+ based IRC client successor of Xchat - lua plugin [-] hexchat-perl-2.12.4_2 A GTK+ based IRC client successor of Xchat - perl plugin [-] hexchat-python-2.12.4_2 A GTK+ based IRC client successor of Xchat - python plugin
Afficher les informations d’un paquet installé :
$ xbps-query hexchat architecture: x86_64 build-date: 2017-04-12 08:50 CEST ... short_desc: A GTK+ based IRC client successor of Xchat source-revisions: hexchat:66e4fa9536 state: installed
Mettre à jour le système :
# xbps-install -Su
Supprimer un paquet :
# xbps-remove hexchat
Supprimer tous les paquets obsolètes :
# xbps-remove -Oo
Afficher les autres noyaux disponibles sur la machine :
$ vkpurge list 4.10.10_1 4.9.11_1
Supprimer un noyau :
# vkpurge rm 4.9.11_1
La politique de paquets de Void
Malgré quelques manques (notamment KDE 5), la logithèque de Void est assez fournie, au moins 8 000 paquets. Ce nombre peut paraître faible en comparaison des 43 000 paquets proposés par Debian, mais ce n’est pas tout à fait le cas, car Void réutilise les gestionnaires de paquets proposés par les différents langages et outils. Ainsi, là où Debian propose de nombreux paquets pour les bibliothèques Haskell, les packages LaTex et les greffons Vim, Void préfère généralement passer par les gestionnaires respectifs (cabal / stack, tlmgr, vundle), ce qui n’est pas comptabilisé dans les paquets de la distribution.
Écrire et soumettre des paquets
Void permet bien entendu de compiler et d’installer des logiciels « à la main ». Cependant, si vous voulez faire une installation propre, vous pouvez créer un paquet et l’installer via le gestionnaire xbps (voir la page xbps-src dans le Wiki). Et si votre paquet fonctionne bien, vous pourrez même facilement le proposer aux mainteneurs de Void pour qu’il soit intégré dans le dépôt officiel.
Initialisation d’un dépôt de paquets
Pour créer des paquets Void, le plus simple est de cloner le dépôt officiel de Void, puis d’en diverger en y créant ses paquets.
Le dépôt de paquets contient un programme
xbps-src
pour compiler des paquets. Pour pouvoir l’utiliser, il faut d’abord initialiser un environnement de compilation :$ ./xbps-src binary-bootstrap
Créer un paquet
Imaginons, par exemple, que vous voulez empaqueter le programme GNU-hello. Commencez par créer une branche « hello » dans le dépôt de paquets :
$ git checkout -b hello
Initialisez un nouveau paquet hello :
$ xnew hello
Ceci crée un fichier
srcpkgs/hello/template
qui contiendra la description du paquet et les instructions de compilation. Éditez ce fichier pour votre paquet :# Template file for 'hello' pkgname="hello" version="2.10" revision=1 build_style=gnu-configure distfiles="https://ftp.gnu.org/gnu/hello/${pkgname}-${version}.tar.gz" checksum="31e066137a962676e89f69d1b65382de95a7ef7d914b8cb956f41ea72e0f516b" short_desc="Produces a familiar, friendly greeting" homepage="https://www.gnu.org/software/hello/" license="GPL"
Vous pouvez déterminer la somme de contrôle avec la commande :
$ xgensum -f srcpkgs/hello/template
Une fois le fichier de configuration écrit, lancez la compilation et la création du paquet :
$ ./xbps-src pkg hello
Si tout s’est bien passé, vous pouvez alors installer votre paquet sur votre machine :
# xbps-install --repository=hostdir/binpkgs/hello/ hello
Soumettre un paquet
Si votre paquet fonctionne correctement, vous pouvez le proposer à la communauté pour qu’il soit intégré dans les paquets Void officiels. Tout d’abord, comme Void est disponible pour plusieurs architectures et libc, il faut commencer par tester si le paquet peut se compiler correctement sur d’autres architectures, par exemple pour ARM7, avec musl-libc :
$ ./xbps-src -a armv7l-musl pkg hello
Créez ensuite un commit décrivant votre contribution et envoyez‐le dans une branche spécifique sur le serveur :
$ git add srcpkgs/hello/template $ git commit -am "New package: hello-2.10" $ git push -u origin hello
Il ne vous reste plus qu’à vous connecter sur GitHub et à créer une demande d’intégration _— pull request — de votre commit dans le dépôt officiel. Si des modifications vous sont demandées, pensez à travailler toujours sur le même commit et la même branche distante :
$ git commit -a --amend $ git push -f
Conclusion
Void (Linux) est une distribution peu connue mais dont les choix techniques originaux sont plutôt appréciables à l’usage. Elle est légère, rapide, très à jour et facile à configurer « dans l’esprit UNIX ». En revanche, elle n’est pas destinée à des débutants et n’a pas la logithèque la plus complète qui soit.
Personnellement, j’utilise Void tous les jours pour des usages classiques de bureautique, Web, multimédia, ainsi que pour développer en C++ et en Python avec toutes sortes de bibliothèques. En un an d’utilisation, je n’ai pas réussi à la casser ni à avoir de conflits majeurs. En deux occasions, la mise à jour du système ne fonctionnait pas, mais à chaque fois il a suffit d’attendre un jour ou deux pour que les mainteneurs corrigent le problème et que les mises à jour fonctionnent à nouveau.
-
Espionnage: la FSF deconseille le cloud public, recommande les clouds privés basés sur le libre
(Journaux LinuxFR)
Le journal The Guardian a révélé que la NSA (Agence de Sécurité Nationale des États-Unis) a un accès direct aux systèmes de Google, Facebook, Apple et autres géants de l'Internet, pour espionner les communications qui passent par les États-Unis. John Sullivan, directeur de la Free Software Foundation, conseille d'utiliser des logiciels libres (en cloud privé) plutôt que le cloud public:
Des intrusions de la vie privée de cette ampleur sont à craindre quand les gens abandonnent leurs données et logiciels locaux pour migrer vers le stockage et les applications en ligne. Les géants come Microsoft, Facebook et Google sont vulnérables aux requêtes du gouvernement exigeant les données des utilisateurs. Pour contrer ce problème, il y a de meilleurs moyens, plus sûrs, de partager des informations en ligne. Les logiciels libres comme GNU MediaGoblin, StatusNet, Diaspora, pump.io, Tahoe-LAFS, FreedomBox et SparkleShare travaillent d'arrache-pied pour créer un monde moins centralisé, un monde dans lequel les utilisateurs maintiennent le contrôle sur leurs données et sur les logiciels qui accèdent à ces données, mais un monde qui est tout aussi pratique et social que son équivalent centralisé.
MediaGoblin: Publication de media. Similaire à Flickr, YouTube, SoundCloud.
StatusNet: Micro-blogging. Similaire à Twitter.
Diaspora, pump.io, Freedombox: Réseau social décentralisé. Similaire à Facebook.
Tahoe-LAFS, SparkleShare, CmisSync: Synchronisation de fichiers. Similaire à Dropbox.
Zimbra: Email. Similaire à Gmail/Calendar. -
Prince: bronsorisé :(
(Journaux LinuxFR)
Il était tout à la fois Marvin Gaye, Sly Stone, James Brown, Georges Clinton et Jimi Hendrix.
le Frank Zappa de la musique noire, fantasque, exigeant mais surtout génial.
R.I.P -
Votre Service Client "La Fibre"
(Journaux LinuxFR)
Chère cliente, cher client,
Chaque année plus d’1 million d’impacts de foudre ont lieu en France
(blabla)C'est pourquoi, en cas d'absence prolongée ou en période d'orages, nous vous recommandons >de protéger votre Livebox en la débranchant de la prise téléphonique puis de >l'alimentation électrique.
(blabla)Votre service clients La Fibre
fear
j'espère ne jamais avoir à faire avec eux, s'ils pensent qu'une LiveBox Fibre Optique se débranche de la Prise Téléphonique. -
PROXMOX VE a 10 ans
(Dépêches LinuxFR)
Cette semaine marque le dixième anniversaire du projet libre Proxmox Virtual Environment (VE), développé et maintenu par Proxmox Server Solutions, basé en Autriche.
Proxmox VE 0.9, la plate‐forme libre de virtualisation, a été annoncée dans une première version publique il y a dix ans le 15 avril 2008 et la solution a permis de gérer KVM et OpenVZ sur une seule interface de gestion. Depuis lors, cinq versions majeures et de nombreuses mineures ont été produites.
- lien n°1 : Plus sur l’histoire du projet Proxmox VE
- lien n°2 : Feuille de route
- lien n°3 : Annonce sur le forum
Aujourd’hui, la version actuelle de Proxmox VE 5.1 permet aux administrateurs de contrôler l’ensemble de leur environnement informatique virtualisé avec un seul outil de gestion. Proxmox VE prend en charge deux technologies de virtualisation (KVM et LXC – qui a remplacé OpenVZ avec la version 4.0) et offre une API REST, un réseau flexible, des fonctionnalités pour offrir une grappe de serveurs (cluster) à haute disponibilité, un stockage défini par logiciel, des fonctionnalités de sauvegarde et restauration, un pare‐feu, et beaucoup d’autres outils prêts à l’emploi et de technologies libres intégrées. Depuis la version 5.1 Proxmox VE aussi intègre Ceph storage 12.2.x Luminous LTS, pour l’implémentation d’infrastructures hyper‐convergentes.
Il y a dix ans, les développeurs de Proxmox ont été les premiers à relier les deux technologies de virtualisation KVM et conteneurs (initialement OpenVZ) sur une seule plate‐forme et à les rendre facilement gérables via une interface Web. Lors du lancement du développement de Proxmox VE en 2007, les deux fondateurs de Proxmox, Dietmar Maurer (CTO) et Martin Maurer (CEO), l’ont conçu comme un CD d’installation « bare‐metal » contenant une version très modifiée de Debian GNU/Linux optimisée pour un serveur de virtualisation. Ils ont utilisé un noyau Linux modifié qui comprenait tout le nécessaire pour KVM et OpenVZ. Peu de temps après le lancement de la 0.9, la première version stable de Proxmox VE 1.0 était disponible, en 2008, avec de nouvelles fonctionnalités. Il devenait alors possible pour les utilisateurs de virtualiser des applications GNU/Linux et Windows exigeantes, d’appliquer la migration en direct et de sauvegarder leurs données via vzdump depuis l’interface graphique.
« Il est difficile de croire que Proxmox VE a dix ans aujourd’hui, et c’est formidable de voir à quel point il est devenu populaire » dit Martin Maurer, CEO de Proxmox. « Lors de la première publication de Proxmox VE, il n’existait aucune interface de gestion sur le marché permettant de gérer facilement KVM ou OpenVZ. Nous étions, pour autant que je sache, l’un des premiers projets à intégrer la prise en charge des machines virtuelles et des conteneurs sur une interface graphique centrale. Proxmox VE a été conçu pour répondre à ce besoin. Au fil des années, il a ajouté de nombreuses fonctionnalités et a été dimensionné pour répondre aux exigences des entreprises et des utilisateurs souhaitant disposer d’une plate‐forme libre pour gérer facilement la virtualisation, le réseau et le stockage. »
Aujourd’hui, Proxmox VE est traduit en 19 langues et compte environ 200 000 hôtes installés dans plus de 142 pays. La société Proxmox Server Solutions offre un accès par abonnement au support technique et aux paquets du référentiel stable. Plus de 11 000 clients allant des moyennes entreprises aux grandes entreprises, aux organismes sans but lucratif et aux particuliers ont un abonnement actif. Les forfaits varient entre 75 et 800 euros par processeur et par an, et permettent d’accéder au support technique et au référentiel d’entreprise stable qui fournit des paquets fortement testés et validés.
Proxmox VE, un projet libre de dix ans, sous licence libre GNU Affero GPL v3, offre des versions régulières et continues, et est devenu l’alternative libre aux solutions propriétaires pour la virtualisation de centre de données (datacenters) ou pour des solutions complexes de gestion d’informatique en nuage (cloud).
« Proxmox VE est devenue une puissante plate‐forme de gestion de virtualisation d’entreprise qui permet à nos utilisateurs de gérer facilement toute leur infrastructure virtualisée », explique Martin Maurer. « Nous avons parcouru un long chemin maintenant et nous ne serions pas là sans nos clients, nos utilisateurs et nos partenaires qui nous soutiennent et nous poussent constamment avec des commentaires et de nouvelles demandes de fonctionnalités. Plus important encore, nous sommes reconnaissants de tout le travail intense et des toutes les contributions de notre fantastique équipe. La conception architecturale de notre plate‐forme et le modèle de développement open-source nous permettent de nous adapter constamment aux dernières technologies et d’adapter Proxmox VE aux demandes informatiques croissantes de notre communauté. Pour notre prochaine version, Proxmox VE 5.2, nous avons par exemple Cloudinit sur la feuille de route qui, nous l’espérons, fera le bonheur de beaucoup de nos utilisateurs. »
Commentaires : voir le flux atom ouvrir dans le navigateur
-
PyConFR 2018, du 4 au 7 octobre à Lille : appel à contributions
(Dépêches LinuxFR)
La PyConFR, c’est le rassemblement annuel francophone de passionnés et curieux du langage Python. Cette année, on invite la communauté à se retrouver à Lille du 4 au 7 octobre.
Pour ceux qui ne connaissent pas la formule, les deux premiers jours (jeudi et vendredi) sont dédiés à des sprints (hackathons), et le week‐end sera rempli de conférences et d’ateliers découverte.
Contribuez à cette édition et aidez‐nous à la rendre mémorable en proposant du contenu : conférences, ateliers, sprints !
Quelques idées de sujets : enseignement du langage, montée en charge (scaling), sécurité, science des données, apprentissage automatique (machine learning), retour d’expérience, empaquetage, présentation d’une bibliothèque, Internet des objets (IoT), asynchrone, communauté, diversité, pyre-check, 2to3, PyPy, Python vs Go, intégration et livraison continues (CI/CD), stockage de données, agents conversationnels (chatbots), Python magic, Ansible vs SaltStack et tellement d’autres…
- lien n°1 : PyConFR 2018
- lien n°2 : AFPy
- lien n°3 : L’appel à proposition
- lien n°4 : Soumettre une proposition
- lien n°5 : Suivez‐nous sur Twitter
- lien n°6 : Meetup Python Lille
- lien n°7 : Martine découvre Python
Commentaires : voir le flux atom ouvrir dans le navigateur
-
Tour d'horizon des éditeurs de texte pour le terminal
(Journaux LinuxFR)
Sommaire
Le nombre d'éditeurs de texte disponible sur nos systèmes d'exploitation est très important, même en se limitant à ceux s'exécutant dans un terminal.
La sélection suivante est donc forcement partielle. Dans la suite je parlerais des principaux éditeurs, de leurs clones, des anciens moins connu et enfin des plus récents.
La famille vi
La particularité de cette famille est d'être modale, les touches ont une action différente selon le mode dans lequel on est. De plus vi est dans la norme POSIX, donc tous les OS de type POSIX embarque un clone de vi.
Voir l'histoire de vi : wikipedia - Vi History
elvis
Elvis est un des premiers clone de vi (avec Stevie)
- url: elvis.the-little-red-haired-girl.org
- filiation: vi
wikipedia: wikipedia - Elvis
code source : github.com/mbert/elvis
début du développement: ~ 1990
langage : C
utf-8: ko
debian: tracker.debian.org/pkg/elvis
nvi
Nvi est une réécriture du vi des BSD 4.4 à partir du code d'Elvis.
- url: sites.google.com/a/bostic.com/keithbostic/vi
- filiation: vi
wikipedia : wikipedia.org - Nvi
code source : repo.or.cz/w/nvi.git
début du développement: 1986
langage : C
utf-8: ok
debian: tracker.debian.org/pkg/nvi
vim
Vim est certainement le clone de vi le plus utilisé aujourd'hui. Il est disponible sur de nombreuses plateformes et une vie entière ne suffit pas a faire le tour de ses fonctions.
- url: www.vim.org
- filiation: vi, Stevie
wikipedia: wikipedia - Vim
code source : code.google.com/p/vim
début du développement: ~ 1990
langage : C + VimL
utf-8: ok
debian: tracker.debian.org/pkg/vim
neovim
Neovim est un fork de vim.
Voir la dépêche sur le sujet, neovim une refonte de vim pour le 21e siecle
- url: neovim.org
filiation: vim wikipedia:
code source: github.com/neovim/neovim
début du développement: 2014
langage: C + Lua
utf-8: ok
debian:
kakoune
Éditeur qui s'inspire de vim mais a sa propre philosophie (voir le
répertoire doc/)- url: github.com/mawww/kakoune
- filiation: vim
wikipedia:
code source: github.com/mawww/kakoune
début du développement: 2011
langage : C++11
utf-8: ok
debian:
La famille emacs
M-x editeur
wikipedia - Liste des implémentations d'Emacs
emacs
On ne le présente plus, le plus difficile étant de trouver quelque chose qu'on ne peut pas faire dans emacs.
- url: www.gnu.org/software/emacs
- filiation: TECO wikipedia - TECO
wikipedia: wikipedia - Emacs
code source: git.savannah.gnu.org/cgit/emacs.git
début du développement: 1976, GNU emacs 1984
langage : C + elisp
utf-8: ok
debian: tracker.debian.org/pkg/emacs24
note: se lance en ligne de commande avec l'option
-nw
pour--no-window-system
uemacs
Version légère et portable d'emacs.
- url: www.aquest.com/emacs.htm
- filiation: emacs
- wikipedia: wikipedia - MicroEMACS
Linus Torvalds maintient une ancienne version de uemacs et l'a fait
depuis évoluer.- code source: git.kernel.org/cgit/editors/uemacs/uemacs.git
- langage : C
- utf-8: ok (La version de Torvalds)
mg
Version très portable de uemacs nommé initialement Micro GNU/emacs.
- url: homepage.boetes.org/software/mg
filiation: uemacs
wikipedia: wikipedia - Mgcode source: bxr.su/OpenBSD/usr.bin/mg
début du développement: 1986
langage : C
utf-8: ko
debian: tracker.debian.org/pkg/mg
zile
zile est une implémentation d'emacs plus limité et plus légère.
- url: www.gnu.org/software/zile
- filiation: uemacs
wikipedia: wikipedia - Zile
utf-8: ko
debian: tracker.debian.org/pkg/zile
La famille à menu
Les éditeurs de cette famille ont comme point commun, d'être plus
abordable pour le novice en fournissant un menu permettant l'auto-découverte.nano
Nano est la version GNU de Pico (Pine Composer), l'éditeur de texte du client mail Pine.
- url: www.nano-editor.org
- filiation: pico
wikipedia: wikipedia - GNU nano et wikipedia.org - Pico
langage : C
début du développement: 1999
utf-8: ok
debian: tracker.debian.org/pkg/nano
Note: Pico est aussi disponible dans Debian,
packages.debian.org/jessie/alpine-picoJed
Jed associe les fonctionnalités d'un éditeur très extensible pour développeur à une interface facile basé sur un menu.
- url: www.jedsoft.org/jed
- filiation:
wikipedia: wikipedia - JED
code source: git://git.jedsoft.org/git/jed.git
début du développement: 2006 ?
langage : C + S-Lang
utf-8: ok
debian: tracker.debian.org/pkg/jed
ne
ne, le nice editor semble être un bon compromis entre richesse des
fonctions et simplicité. Cet éditeur possède un jeu de fonctions
(commandes) qui peuvent être lié a une séquence de touche ou à une
entrée de menu.- url: ne.di.unimi.it
- filiation: TurboText ; www.monkeyhouse.eclipse.co.uk/amiga/turbotext
wikipedia: wikipedia - Ne
début du développement: 1993
langage : C
utf-8: ok
debian: tracker.debian.org/pkg/ne
mcedit
mc (mindnight commander) propose un éditeur très complet, mcedit.
- url: www.midnight-commander.org
- filiation:
wikipedia:
code source: www.midnight-commander.org/browser
début du développement: 1994
langage : C
utf-8: ok
debian: tracker.debian.org/pkg/mc
kaa
Encore un éditeur avec un menu, celui-ci extensible en Python.
- url: kaaedit.github.io
- filiation:
wikipedia:
code source: github.com/kaaedit/kaa
début du développement: 2013
langage : Python 3 + C
utf-8: ok
debian:
Les autres
Des éditeurs qui ne rentrent pas dans les précédentes catégories ou qui peuvent les imiter toutes.
Joe
Un des plus ancien challenger.
- url: joe-editor.sourceforge.net
- filiation: WordStar, Emacs
wikipedia: wikipedia - Joe Own Editor
code source: sourceforge.net/p/joe-editor/mercurial/ci/default/tree
début du développement: 1988
langage : C
utf-8: ok
debian: tracker.debian.org/pkg/joe
Diakonos
L'objectif principal de Diakonos est de proposer un éditeur en console avec les raccourcis clavier classique d'une application graphique tel un navigateur ou un traitement de texte.
- url: diakonos.pist0s.ca
- filiation:
wikipedia: wikipedia - Diakonos
code source: github.com/Pistos/diakonos
langage : Ruby
début du développement: 2004
utf-8: ok
debian: tracker.debian.org/pkg/diakonos
Yi
Yi est un éditeur de texte écrit et extensible en Haskell.
- url: www.haskell.org/haskellwiki/Yi
- filiation:
wikipedia: wikipedia - Yi
code source: github.com/yi-editor/yi
langage : Haskell
début du développement: 2004
utf-8: ok
debian: tracker.debian.org/pkg/yi
Textadept
Textadept est un éditeur graphique qui propose aussi une interface
curse. Celui-ci est extensible en Lua. L'auteur utilisant le composant Scintilla pour la version graphique, celui-ci a développé une version pour curse scinterm- url: foicica.com/textadept
- filiation:
wikipedia: wikipedia - Textadept
code source: foicica.com/hg/textadept
début du développement: 2007
langage : C + Lua
utf-8:
Spacemacs
Spacemacs n'est pas un éditeur, mais une (énorme) configuration pour
emacs. Leur baseline "The best editor is neither Emacs nor Vim, it's
Emacs and Vim!" et leur originalité un <leader> configuré sur espace qui ouvre un Menu permettant de découvrir les fonctions disponibles.- code source: github.com/syl20bnr/spacemacs
- début du développement: 2012
Conclusion ?
Pas de conclusion, si vous voulez en découvrir encore d'autre, voici deux listes :
Mais attention de ne pas vous perdre par ici texteditors.org !
-
Lug : Mardi 3 décembre à Grenoble : conférence "Avoir une vie privée sur Internet"
(Dépêches LinuxFR)
La Guilde (Guilde des utilisateurs d'informatique libre du Dauphiné) organise une conférence sur la vie privée sur Internet le mardi 3 décembre 2013 !
La conférence sera animée par Antoine Duparay, contributeur Mozilla, et s'organisera autour des questions suivantes :
Quelles traces laissons-nous en utilisant le Web ? Quelles en sont les implications ? Que pouvons-nous faire pour nous protéger ? Observons le phénomène grâce au greffon LightBeam (ex Collusion) pour Firefox et découvrons les réglages applicables pour se protéger. En ces temps de PRISM et de Cloud Computing, il est temps de réfléchir à la place que nous donnons réellement à nos données.
La conférence se tiendra à l'amphithéâtre E1 de l'ENSIMAG, sur le campus de Saint Martin d'Hères, le mardi 3 décembre 2013 à partir de 19h.
Toutes les informations détaillées sont disponibles sur le site de la Guilde.
- lien n°1 : Site de la guilde
- lien n°2 : Lieux de la rencontre
- lien n°3 : Lightbeam
-
Neatmail: un client mail minimaliste
(Journaux LinuxFR)
Sommaire
- Ali Gholami Rudi
- Ce que Neatmail ne fait pas
- Ce que Neatmail fait
- Le commande ex de neatmail
- Un script shell comme interface
- Conclusion
J’utilise depuis quelque temps un tout petit client mail, qui ne fait vraiment que le minimum, mais a une interface si particulière, qu’il me semble intéressant de vous le présenter. Il s’agit de Neatmail écrit par Ali Gholami Rudi.
Ali Gholami Rudi
Je connais Ali Gholami Rudi pour une implémentation de Troff à la fois pertinente en termes de fonctionnalités et dont le code source est très propre. Il a aussi écrit un compilateur (neatcc), une libc (neatlibc), et une implémentation de vi. C’est un développeur qui, plutôt qu’une éthique, semble défendre une certaine esthétique du logiciel, que je qualifierai de minimaliste: code source compréhensible par une personne seule, logiciel qui fait peu de choses, mais le fait bien, etc.
Neatmail le client mail qu'il s'est programmé, et celui‐ci met en scène toute l’esthétique de son auteur.
Ce que Neatmail ne fait pas
Neatmail ne fait que gérer un fichier mbox (une concaténation de mails). Ainsi, il ne sait ni rapatrier, ni envoyer les mails, il ne sait ni extraire, ni ajouter de pièce jointes, etc.
Mais en vérité, il n’a pas besoin de faire tout cela, car d’autres logiciels le font. Ali Gholami Rudi propose ainsi un pop3 pour rapatrier les mails depuis un serveur pop3, et smtp pour envoyer ses mails à un serveur smtp. Et il existe dans certaines distributions un ripmime pour extraire les pièces jointes d’un fichier mime.
Ce que Neatmail fait
Neatmail se contente donc d’effectuer des actions sur un fichier mbox. Les actions de bases sont:
‐ mk Génère une liste des mails contenus dans la mbox.
‐ ns Génère une liste des nouveaux mails présents dans la mbox.
‐ pg Affiche un des mails contenu dans la mbox.On peut donc l’utiliser ainsi:
# Obtient les mails pop3 # liste les mails, triés par fil de discussion neatmail mk ‐r ‐st ‐0 18from:48~subject: mbox # affiche le 3e mail neatmail pg mbox 3 # prépare une réponse neatmail pg ‐r mbox 3 > draft.eml vi draft.eml # envoie la réponse tail ‐n+2 draft.eml | smtp # garde une copie de la réponse cat draft.eml >> sent rm draft.eml
Mais en outre, neatmail peut interpréter les commandes ex contenues dans la liste des mails. Autrement dit, l’utilisateur est invité à ajouter des commandes à cette liste de mails, et donner le tout à neatmail qui se chargera de l’exécution:
neatmail mk ‐r ‐0 18from:48~subject > list.nm vi list.nm neatmail ex < list.nm
Le commande ex de neatmail
La commande ex de neatmail prend en entrée une liste de commandes, et les exécute sur un fichier mbox. Elle ignore toutes les lignes hormis celles commençant par deux points (commande ex) ou une lettre majuscule (un mail dans la liste). Les lignes commençant par une lettre majuscule de la forme "R100..", modifient le statut du message dont le nombre suit la lettre (ici, 100). Une telle ligne définit aussi le message actuel, celui sur lequel les commandes sont exécutées. Les commandes ex sont les suivantes:
‐ rm supprime le message courant.
‐ cp copie le message courant dans une mbox donnée.
‐ mv déplace le message courant dans une mbox donnée.
‐ hd modifie l’entête donnée du message courant.
‐ ft passe le message courant à une commande donnée.
‐ w écrit les modifications dans la mbox.
‐ tj joint les fils de discussion en modifiant l’entête "Reply‐To".
‐ ch coupe le message à l’offset indiqué.Par défaut, ces commandes agissent sur le message courant, mais il est aussi possible d’utiliser des adresses du type
2,5rm
pour effacer les messages 2 à 5. Il est aussi possible d’utiliser des expressions régulières du type/regex/rm
, oùregex
est recherché dans le sujet des messages. D’autres champs peuvent être spécifiés en utilisant l’expression^field:value
.Un script shell comme interface
Vous allez certainement penser que l’interface est un peu rude… À vrai dire, Ali Gholami Rudi n’utilise pas neatmail directement: un script shell (m) lui sert d’interface. Et c’est là que le logiciel brille: pour peu que l’on ait un peu l’habitude du shell, on peut se créer une interface sur mesure. On peut par exemple imiter l’interface de mh (un autre client mail non interactif un peu oublié). On pourrait créer une interface interactive. Bref, on peut faire ce qu’on veut.
J’utilise par exemple l’interface suivante:
m box inbox # liste les messages contenus dans la mbox inbox. m vi 3 # affiche le message 3 m next # affiche le message 4 m repl # ouvre mon éditeur sur une réponse préformatée au message 4 m add f.pdf # joint f.pdf à ma réponse m send # envoie ma réponse. m R # marque le message 4 comme lu. m com # enregistre les changements dans la mbox (ici, change l’entête du message 4)
Conclusion
Au jour le jour, je suis plutôt satisfait de l’ensemble. Le fait de travailler sur les mails en local est plutôt agréable: c’est fluide, offre une grande liberté d’organisation, s’associe bien à un système de sauvegarde ou de gestion de version, etc. Le fait que le client ne soit pas interactif apporte un certain confort d’usage: le shell est sous la main si besoin, je retrouve ma session de travail dans l’état où je l’ai laissée d’un jour à l’autre, il est facile d’implémenter des solutions pour revenir en arrière (cp…). Le fait de coupler le tout avec le shell offre une grande liberté dans la création de l’interface utilisateur.
Commentaires : voir le flux atom ouvrir dans le navigateur
-
Tutoriel 3D - 2D découpe au laser, le retour du tux
(Journaux LinuxFR)
Sommaire
- Tranche de pingouin
- Au début était le cube
- Il est gros vot manchot ?
- Et si on l’écartelait ?
- Mais quand est-ce qu’on coupe ?
- Et si on l’empalait ?
- On l’empale plus ?
- Parlons peu, parlons kerf
- C’est la lutte finale
- Le petit oiseau va sortir
- TuxOlaser
- Déboitage du tux et montage
- Tadaaaa
- A propos de licences
- Les fichiers
Tranche de pingouin
Chose promise, cause perdue. Voici comment transformer un modèle 3D en tranches de bois pour découpe laser. Et en bonus, mon essai initial de découpe en création originale.
Les outils que j’ai utilisé sont blender et inkscape, et ce juste parce que je les connaissais et donc plus facile pour expérimenter.Note aux amateurs de freecad, j’ai commencé à regarder comment ça marche, au cas où ce serait plus simple avec, si jamais je trouve une idée et le courage de refaire un tuto, ça me fera un zeugma.
Au début était le cube
Ouvrir un nouveau fichier dans blender et mettre la scène en métrique, car sinon les mesures ne sont pas fixées par taille réelle. Notez que à chaque étape du tuto on aura des soucis de conversion de dimensions, donc en fait… mais bon faut pas en profiter pour être négligent.
Retirer le cube et ajouter le Tux à la scène. Vous pouvez le trouver ainsi que toutes les licences à Tuuuuuuux
- Faire face au tux (1 au pavé num)
- Mettre la vue iso (5 au pavé num)
- sélectionner le tux
- passer en editor mode (tab)
- Sélectionner le dessous des pattes (B) qui est rond
- Niveler (SZ0)
- sélectionner les deux centres des pattes, (S) Snap cursor to selected
- rebasculer en object mode (tab) , transform origine to 3d cursor (object/transform)
Maintenant, le tux est calé pour avoir le plancher des pattes en comme origine, à la verticale du pseudo centre de gravité que nous venons de choisir.
mettre la bête en Z 0.
Il est gros vot manchot ?
Il nous faut choisir une taille, suffisamment grosse pour que ce soit cool, et pas trop gros pour limiter le prix. Comme l’objet c’est aussi tester une bonne quantité d’épaisseurs pour voir comment ajuster la taille théorique d’une planche par rapport à sa taille réelle (il reste du vide, la colle ça épaissit, les planches sont pas forcément pile à la taille).
Une planche 2mm chez sculpteo (chez qui je teste la découpe laser) fait 94cm*59cm, il faut aussi essayer de rester dans une seule planche avec tous les morceaux. Le tux est presque aussi large que haut, du coup on cherche une approximation de cube découpé en tranches et étalé fait la même surface en gardant un peu de marge. ça fait 55 tranches, donc une hauteur de 116.875mm
Et si on l’écartelait ?
Il nous faut séparer les pattes du corps du tux (ce sont des objets distincts dans le modèle de base en fait et elles s’interconnectent :
Il faut les réunir par booléen union au corps pour avoir un seul objet avec un intérieur/extérieur propre.On peut maintenant appliquer une subdivision sur le tux CTRL+3, parce que le tux aime la douceur, et pas que celle angevine.
Lui sculpter des yeux plus sympa, parce que même si tout le monde ne veut pas l’avouer, pour avoir l’air cool faut quand même avoir un peu l’air con.
Mais quand est-ce qu’on coupe ?
Patience, il faut regarder un peu avant de couper. Placer un plan plus grand que le tux au sol, genre 20cmx20cm et lui appliquer un booléen d’intersection avec le tux. Et regarder en bougeant le plan sur Z comment seront les tranches.
On voit deux endroits à problème, les ailes et la queue qui auront des tranches avec plus que un morceau, ce qui est plus complexe à coller.
par ex les ailes :
Ce sera lourd à coller ensuite, on peut mais pourquoi…
autant relier les ailes au tronc le plus légèrement possible, avec un lien de 1mm de large.
idem au niveau de la queue :J’ajoute un bloc en union au niveau de la queue, le plus ajusté possible par un booléen union.
Cela vous permettra de facilement coller, il sera toujours possible de le limer après collage.
Il faut bien nettoyer le résultat de l’union à l’intérieur du tux, ne pas laisser de cloisons internes, c’est à dire éviter d’avoir des plan à l’intérieur des plans :
Finir de nettoyer en retirant les doublons de vertices, boucher les trous, assurer les normales pour que ce soit clair ce qui est à l’intérieur et à l’extérieur.
Et si on l’empalait ?
Pensons au support central qui va nous permettre de facilement positionner et coller les tranches de tux, il va être en trapèze et ressembler à ça au niveau d’une tranche :
Le choix de la découpe sera donc toujours du côté le plus grand, en bas. Donc notre référence pour le positionnement des plans de découpe doit être la face basse de chaque tranche.
Replaçons le plan à 0.01mm en Z (pour éviter le chevauchement parfait des surface avec les pattes Z=0), pensez à remettre tous les éléments avec scale=1 (Ctrl+A scale and rotation) pour la suite.
Faire une array de 50 plans en Z espacés de 2.125mm, faire le booléen intersection avec le tux. Lors de la réalisation de mon bureau réel avec des tux, j’ai constaté que l’empilage de x tranches de 2mm n’a pas un résultat de x*2mm, mais avec l’air restant et la colle environ 2.125. Je vais affiner avec ce tux cette estimation mais déjà on part de 2.125mm par tranche.
On voit les tranches et on voit des petits problèmesUne tranche qui manque en haut et le cul qui a une mini tranche en bas.
Diminuer le overlap thresold du booléen pour que le problème du haut disparaisse :Remonter le point du bas du tux pour supprimer le second problème et non, ce n'est pas lui mettre un doigt dans le cul car ça ne doit pas rentrer :
Nickel !
Simulons une épaisseur des tranches pour avoir un aperçu du résultat réel, ajoutons au plan un modifier solidify 2mm avec l’offfet à +1 (vers le haut) pour suivre le plan d’avoir la face basse comme référence :
Le résultat est conforme, retirez le solidify, il ne doit pas interférer avec l’étape de création du lien central.
On l’empale plus ?
Mais si, mais si. En fait ce n’est pas obligatoire, mais ça facilite le positionnement des étages, et on peut aussi le garde sans le coller. Le lien central doit avoir une forme de trapèze et être parfaitement vertical, car pour l’instant sculpteo ne fait pas de découpe oblique.
Il doit faire une épaisseur égale à celle du bois. Pour mon exemple je suis resté sur mon approximation (2.125mm) mais normalement il faut prendre 2mm et ajuster avec l’épaisseur du kerf qui est la taille du laser laissant un vide de découpe autour du trait de coupe. En pratique lors de mon premier essai j’ai eu des soucis d’épaisseur et j’ai du poncer mon trapèze. Du coup comme ce n’est pas nécessaire d’ajuster. Je surestime cette fois-ci la taille du trapèze.
Il faut ajuster sa position pour qu’il traverse tout le tux, coup de chance c’est possible sur ce modèle en plaçant la traverse au centre de la dernière tranche du tux. Mais sinon on l’aurait simplement fait avec deux trapèzes sur deux hauteurs.
Ajustez la taille en X et la hauteur de la partie haute pour faire joli, elle va dépasser un peu et même arrondir sa tête (note postérieure en pratique le trapèze sera toujours trop court, il faut juger les tranches encore un peu plus grand que 2.125mm).En dessous ajuster aussi la taille en X pour donner un beau trapèze
On voit que c’est moche au niveau du pied
On va donc remodeler un peu le trapèze pour qu’il soit plus joli à cet endroit.
Parlons peu, parlons kerf
Le kerf c’est la partie du bois éliminée par le laser, en pratique la découpe est plus petite que le plan car le laser à une taille non ponctuelle. la découpe de la traverse dans les tranches sera donc un peu plus grande que prévu, et la traverse découpée plus court aussi que prévu.
Dans ce modèle, on peut ignorer le kerf et accepter les différences, elles seront minimes et les pièces collées seront bien ajustées.
appliquons donc le booléen différence entre le plan des tranches et la traverse
Le résultat est difficile à voir mais en vue fil de fer c’est visibleC’est la lutte finale
On peut passer à la phase finale, on réalise les “modifier” sur les planches, puis on aplati le trapèze en retirant les vertices d’un côté.
En mode éditeur, on sépare toutes les tranches (P+loose parts en mode édition) et on les étale dans le bon ordre en vue du dessus. Attention, les numéros générés lors de la réalisation de l’array ne sont pas forcément dans l’ordre de Z…
Pour ne pas me planter, je me met dans une vue adaptée et je bouge une par une les tranches avec des gx0.1 … Je vérifie bien que tout est dans l’ordre puis je met tout le monde à plat (sélectionner tout A puis SZ0)Nous allons avoir des soucis de conversion de taille entre blender puis Inkscape puis sculpteo… on commence par poser un étalon dans blender, un plan au sol de 1cm sur 90cm
Le petit oiseau va sortir
Enfin presque, il faut encore à faire la photo !
Il existe une option de rendering qui génère du svg.
Mettons la caméra au dessus en mode orthographique, d’abord une résolution 100% sur un ratio approximatif de mon rectangle incluant tout.
puis placer la caméra assez bien au dessus de la scène et changez les paramètres :L’échelle orthographique est ce qui correspond au zoom, ajustez la valeur pour que tout rentre au plus juste
Tout doit rentrer dans la fenêtre de rendering :
Maintenant depuis les user pref, activez le svg freestyle exporter :
Et activez les deux options freestyle et svg export depuis les options rendering
Pressez F12, une image svg sera générée dans le répertoire indiqué dans output nommé 0001.svg,Ouvrez le dans Inkscape, dégroupez et sélectionnez l’étalon. mettez lui une épaisseur de contour à 0 pour ne pas fausser la taille et regardez sa taille. Dans mon cas je tombe sur 35.719cm.
Je vais donc changer la résolution de l’image pour ajuster la taille d’un facteur de 90/35.719=2.52
Je change dans blender le render pour :Re F12 et vérification.
Mon étalon fait maintenant 1cm sur 90.01cm.
aller, on essaie avec un pixel de moins en Y :), on tombe sur 89.987. C’est moins bon, retour en arrière.Maintenant que l’on a les bonnes tailles dans Inkscape, il faut nettoyer. Parce que le freestyle a introduit des pixels de temps en temps.
Je prends donc chaque découpe pour la repositionner au mieux et aussi supprimer les traces.
Pour m’aider et aussi servir d’étalon entre Inkscape et sculpteo je place un cadre dans une autre couleur qui délimite ma sélection, 53.5cm de large sur 75cm de haut.
Et je fais tout rentrer dedans.
Je vérifie chaque pièce pour assurer qu’il n’y a pas de défaut, et j’assure les contours à 1px et mon cadre avec une couleur différente
C’est prêt.
Pour ceux qui sont plus observateurs que moi, vous verrez que j’ai oublié de grouper une fente dans une tranche. Moi je vais le voir au montage plus tard…TuxOlaser
J’upload chez sculpteo.
Deux couleurs sont détectées, l"une correspond au noir et l’autre au rouge du cadre. Les mesures n’ont pas été conservées, je ne sais pas pourquoi… mais mon cadre me permet de choisir un ajustement de taille à 26.5% qui me redonne les bonnes dimensions.Je peux alors désactiver le cadre rouge dans sculpteo (style 2 sur aucun et voila !
prêt à couper.Livraison comprise il vous en coûtera 53.33€.
Pour info, les tux du bureau ont coûté moins cher, ils étaient en une seule livraison et un peu plus petits, 72€ les 3.Déboitage du tux et montage
Je hais les video de unboxing, et me voilà moi même à déboiter…
Bon, puisqu’il faut :
la boite est bien protégée
et la planche dans la mousse
Les pièces sont tenues par du scotch, il faudra faire attention en retirant le scotch de ne pas casser les pièces fragiles.
Je numérote mes pièces avant de défaire, c’est moins cher que de faire des numéros au laser.
Ensuite on empile jusqu’à la fameuse pièce 33 qu’il faudra redécouper.Tadaaaa
A propos de licences
J’ai fouillé pour trouver les licences attachées au modèle de base, les voici :
https://opengameart.org/content/tux
https://opengameart.org/sites/default/files/license_images/gpl.png
http://www.gnu.org/licenses/gpl-3.0.html
https://opengameart.org/sites/default/files/license_images/cc-by.png
http://creativecommons.org/licenses/by/3.0/Les fichiers
Voila les fichiers sources blender et le inkscape (piece 33 corrigée)
fichier blender
fichier svgCommentaires : voir le flux atom ouvrir dans le navigateur
-
Dogmazic a besoin de vous !
(Dépêches LinuxFR)
Bonjour à tous,
L'Association Musique Libre qui porte le site Dogmazic.net change de projet. Le développement de la version 3 du site est trop coûteux en temps, en énergies, et en finances. L'association a donc décidé de recentrer ses activités vers du concret. Fini l'attente d'une hypothétique version 3 du site (le développement est toujours disponible sous licence libre et maintenu par son développeur sur github ). Nous avons décidé de nous recentrer autour de nos actions principales : les nouvelles informations autour de la musique libre, le forum, la documentation et notre archive 2004-2012.
Pour cela, nous avons besoin de migrer vers un nouvel hébergeur nous correspondant mieux : Aquilenet. Malheureusement, nous avons beau être des musiciens, être sous diverses distributions Linux, et militants en faveur du libre depuis pas mal d'années, nous ne savons pas - encore - effectuer une migration de base de données et de sites complets.
C'est pourquoi nous sollicitons vos bonnes volontés afin de nous y aider.
Nous vous donnons rendez-vous sur notre chan IRC : irc.freenode.net #dogmazic (ou http://musique-libre.org:7778 )
Merci !
Aisyk pour l'Association Musique Libre !- lien n°1 : Musique Libre
-
Zet Uw Volgende Sigaret Into Your Last Met Deze Stoppen Met Roken Tips
(Laboratoire Linux SUPINFO)
e liquid ingredients. Als je een roker bent , is de kans groot dat u wilt stoppen en gewoon niet weten hoe dit te doen . Wees niet ontmoedigd , omdat de informatie en technieken die in dit artikel zijn bedoeld om mensen zoals jij te helpen . Gebruik de tips in dit artikel om u te helpen langs de weg om een niet-roker
Om uw kansen op succesvol stoppen met roken te stimuleren , denken zetten op papier alle potentiële voordelen en gevolgen van stoppen . Aanbrengen van de kwestie schriftelijk zal u helpen om het beter te kunnen zien . Dit kan u helpen gemotiveerd te blijven , en kunnen stoppen gemakkelijker te maken .
Als u rookt als een manier om stress te beheersen , wil je andere stress saneringstechnieken klaar hebben wanneer je besluit om te stoppen . Blijf uit situaties die je kan stress voor de eerste paar weken nadat je hebt gestopt . U kunt ook uw stress te beheren door middel van yoga , meditatie of door het krijgen van een massage .
Vergeet niet dat uw houding is alles. Wanneer u begint te voelen beneden , moet je proberen om jezelf er trots op dat je stoppen te maken. Roken is slecht voor je en elke keer dat je de drang om te roken te veroveren , moet je trots voelt als u het nemen van belangrijke stappen in de richting van een gezonder je .
Maak een studie van wat triggers uw roken en zoek manieren om je triggers te vermijden. Bijvoorbeeld zaken als roken tijdens het rijden of het lezen , zodat je niet automatisch denken over je rookgedrag te veranderen . Je nodig hebt om een afleiding te vinden, om na te denken over iets anders.
-
Dr. Geo 18.06
(Dépêches LinuxFR)
GNU Dr. Geo est un logiciel de géométrie interactive euclidienne du plan, pour une utilisation à l'école secondaire et primaire. Il permet d'organiser des activités pédagogiques dans l'enseignement de la géométrie, voire d'autres domaines liés des mathématiques.
Intégré à un environnement dynamique de programmation Smalltalk, il propose également une approche de la géométrie dynamique par la programmation, soit par l'utilisation de script(s) intégré(s) à une figure, soit par une description purement programmatique d'une construction géométrique. En outre, Dr. Geo est toujours modifiable depuis lui-même, fonctionnalité héritée de son environnement de développement.La version 18.06 fait suite à la version 17.07 sortie en juillet 2017. Une grande partie de l'effort fut de porter le code de la version 3 à la version 7 de l'environnement Smalltalk Pharo avec lequel est développé Dr. Geo. Outre les corrections de bugs inhérentes à ce portage, quelques fonctionnalités nouvelles ont fait leur apparition.
- lien n°1 : GNU Dr. Geo
- lien n°2 : Article Wikipedia
Nouvelles fonctionalités
Navigateur de code dédié
Dans Dr. Geo, un script est défini par une classe Pharo. L'utilisateur insère alors une instance du script dans la figure géométrique ; il lui associe si nécessaire d'autres objets géométriques de la figure en paramètres. Un script effectue un traitement ad-hoc, calculs ou modifications sur d'autres objets de la figure tels que programmés dans les méthodes du script. Une fois défini, le script est facile à utiliser.
L'édition de script se fait maintenant à l'aide d'un outil d'édition de code dédié, et non plus par l'intermédiaire du navigateur de code de Pharo, qui est pour le moins impressionnant.
À noter que l'ajout d'attribut au script nécessite toujours l'utilisation du navigateur de code de Pharo. Ce besoin est nécessaire uniquement lorsque le script a un état dont il doit se souvenir tout au long du cycle de vie de la figure.
Le manuel utilisateur a une section dédiée au script.
Inspecteur sur code de figures programmées
Une figure programmée est l'autre forme d'utilisation de la programmation dans la géométrie dynamique. Dans cette approche la figure géométrique est entièrement définie par un code Smalltalk et l'utilisation de l'API dédiée.
Il est dorénavant plus aisé de gérer ses fichiers de figures programmées. Le nouvel inspecteur de Pharo — outre l'inspection d'attributs d'instance de classe — propose aussi de voir, d'exécuter, d'éditer et de créer les scripts de figures programmées.
Zoom positionnel
Pour zoomer dans une figure l'utilisateur dispose du widget de molette orange en haut à droite de chaque figure ou de la molette de la souris. Le zoom par la souris est maintenant positionnel, focalisé sur la position du curseur souris ; celui par le widget reste, lui, centré au milieu de la zone visible de la figure.
Détection de polygone sans surface
Lorsqu'un polygone est sans surface (vide), Dr. Geo ne détectera que ses lignes, et non plus sa surface intérieure puisqu'elle n'existe pas.
Tests unitaires basés sur figures programmées
Le petit corpus de figures programmées distribué avec Dr. Geo est également utilisé pour définir une série supplémentaire de tests unitaires.
Partage réseau
Dans le cadre d'une activité pédagogique en salle informatique, distribuer aux élèves des fichiers de figures est pratique. Dr. Geo propose maintenant une fonctionnalité de partage en réseau local, indépendante des services du réseau local (NFS, Samba, Windows, etc.). La marche à suivre est la suivante :
- L'enseignant sauve les documents à partager dans son dossier DrGeo.app/MyShares :
- L'enseignant active le partage réseau local depuis le navigateur de préférences de DrGeo (menu Système, Préférences) :
- L'élève, depuis l'outil habituel d'ouverture de figures, parcourt les figures partagées (bouton 'Partage enseignant') :
Cette fonctionnalité peut s'utiliser de façon croisée avec Linux, Mac et Windows.
Thèmes graphiques
Le navigateur de préférences (menu Système, Préférences) donne accès à deux thèmes graphiques, hérités de Pharo :
Thème sombre, par défaut, à privilégier lorsque Dr. Geo est utilisé de façon autonome sur un seul poste.
Thème clair, à utiliser en vidéo projection, par exemple, car le thème sombre manque de contraste.
Option plein écran
Depuis le menu système, l'utilisateur peut basculer en affichage plein écran ; le système hôte est alors complètement masqué. Pratique pour que les élèves se concentrent sur leur activité de géométrie dynamique.
Commentaires : voir le flux atom ouvrir dans le navigateur
-
Pourquoi Jabber n'a pas plus de succès, même chez les informaticiens?
(Journaux LinuxFR)
Bonjour nal.
Aujourd'hui me suis demandé pourquoi Jabber n'a pas le succès qu'il mérite, même chez les informaticiens.
Il a pourtant de nombreux atouts:
- Simple d'utilisation
- Léger
- Fédéré
- Basé sur le protocole XMPP: un standard ouvert et bien documenté
- Format d'adresse similaire à l'e-mail
- Tout le monde peut fournir une adresse Jabber
- Comptes et/ou clients remplaçable sans perdre ses contacts
- Possibilité de créer un compte depuis le client (si le serveur choisi l'accepte)
- Supporté par des clients variés, adaptés à différents usages
- Supporte la connexion de multiples clients à un même compte
- En cas de multiples connections, on peut gérer leurs priorités
- Possibilité de recevoir une copie des messages reçus et envoyés sur tous ses clients connectés (cabron)
- Historique stocké coté serveur et synchronisé entre les clients (MAM)
- Discussions de groupe avec modérateurs et adresses cachées aux autres participants
- Statut personnel accompagné d'un message
- Statut des messages (envoyé, reçu et lu)
- Envoi de sa position géographique à un contact.
- Annuaire
- Partage de fichier simple (http-upload)
- Possibilité d'empaqueter la connexion dans de l'http (Bosh), pratique quand on est connecté depuis un réseau wifi pourri.
- Conversation audio et vidéo
- Signature et chiffrement de ses messages avec GPG et OTR
- Signature de son status avec GPG
- Possibilité pour le client de communiquer avec les bots, sans que l'utilisateur n'ai à taper de commandes
- Passerelles vers d'autres services de chat (IRC, Telegram, etc)
- Possibilité de découvrir, accéder et interagir avec les services proposés par le serveur et les contactes (bot ou pas)
Coté client libre, il y a du choix:
- Movim: Un client moderne, en version desktop, smartphone et web. Très complet, il propose même un système de "forums" via ce qu'il appelle les "communautés", un système d'actualités avec la possibilité de rédiger ses propres articles, le support de la syntaxe markdown. Les articles qu'on écrit sont même visiblex avec un simple navigateur web, pas besoin de compte Jabber.
- Conversations: Un client léger, pour Android, qui se concentre sur les communications texte. Points négatifs: Il est payant sur le Google Store et la gestion des statuts est cachées sans raison.
- Jitsi: Un client qui se concentre sur la vidéo-conférence, en version desktop, smartphone et web. Plutôt destiné à un usage pro.
- Gajim: Le vénérable client desktop. Très complet, mais son interface date un peu.
- D'autres que j'oublie.
Pour le développeur de bot et l'admin système il y a aussi des points forts:
- Jabber utilise le protocole XMPP: Du XML échangé par un socket TCP.
- XMPP est standard, ouvert et bien documenté
- De nombreuses bibliothèques implémentent ce protocole, certaines étant même tournées vers la création de bots
- Les bases du protocoles existent depuis assez longtemps pour avoir été éprouvées
- Le protocole est extensible, on peut le faire évoluer suivant les besoins
- Prosody fourni un serveur très simple et modulaire. Rapide à déployer. Idéal pour une association, une PME ou un usage personnel. Écrit en lua, c'est un très bon choix si on a besoin de faire du dév coté serveur.
- Ejabberd est quand à lui un serveur conçu pour les grosses infrastructures.
- Possibilité d'envoyer un message de bienvenu aux utilisateurs et de les prévenir en cas de maintenance de serveur.
Jabber est l'idéal pour une association libriste ou un hackerspace:
- Serveur facile à déployer, demande peut de travail pour être maintenu
- L'annuaire permet de retrouver rapidement un autre membre. On peut également pré-remplir la liste des contactes avec les autres utilisateurs du serveur.
- On peut héberger son propre serveur de salons de discussion sur son propre domaine.
- On profite de tous les avantages listés plus haut.
Je peux comprendre qu'il soit très difficile d'avoir du succès auprès du grand public en matière de service de messagerie instantanée. Mais pourquoi Jabber, avec tout ses avantages, n'est-il pas plus utilisé par les informaticiens ou au moins les libristes et les hackers? Pourquoi une solution moins libre comme Telegram, malgré tous ses points
négatifs, a-t-elle plus de succès? -
France Culture: que reste-t-il du logiciel libre ?
(Journaux LinuxFR)
Bon jour Nal !
L'émission Du grain à moudre d'hier, sur France Culture, posait cette question: « Que reste-t-il du logiciel libre ». Des représentants de Framasoft et de Microsoft tentaient de répondre à la question. On peut écouter l'émission en podcast.
J'écoutais vaguement en faisant la cuisine… J'en ai néanmoins déduit une conclusion:
- Le modèle économique du logiciel libre, qui consiste à vendre un service plutôt que le logiciel l'a emporté. C'est du moins le modèle économique que le représentant de Microsoft considère dorénavant le plus viable.
- Le logiciel libre, entendu comme 4 libertés, prospère dans les piles logicielles éloignées de l'utilisateur final, mais peine à s'imposer dans les logiciels plus proches de l'utilisateur final.
- L'éthique que certains (dont moi) associent au logiciel libre, de maîtrise de son outil de travail ou de ses données perd du terrain. Non seulement parce que le modèle du service (dans les nuages) s'est imposé, mais aussi parce que d'une manière générale, plus l'on s'approche de l'utilisateur final, moins on trouve de logiciel libre.
Commentaires : voir le flux atom ouvrir dans le navigateur
-
Surface d'attaque des serveurs dans les nuages (cloud)
(Journaux LinuxFR)
Passionnant et très utile article sur le blog en anglais de James Bottomley (merci LWN.net pour le résumé) : il étudie la sécurité des solutions d'hébergement Cloud en se basant sur la solution retenue : serveurs dédiés, serveurs partagés, serveurs virtuels, conteneurs, et en comparant les profils d'attaques verticales et horizontales.
Comme vous aimez les conclusions rapides, sachez déjà que la solution conteneurs l'emporte haut la main.
Une attaque verticale c'est du code traversé : de la requête web à la base de donnée jusqu'à la réponse dans le navigateur ou l'application, et qui contient potentiellement des bugs, elle concerne uniquement votre hébergement :
all code that is traversed to provide a service all the way from input web request to database update to output response potentially contains bugs; the bug density is variable for the different components but the more code you traverse the higher your chance of exposure to exploitable vulnerabilities. We’ll call this the Vertical Attack Profile (VAP) of the stack.
Une attaque horizontale par contre peut se propager d'hébergement en hébergement :
In an IaaS cloud, part of the vertical profile belongs to the tenant (The guest kernel, guest OS and application) and part (the hypervisor and host OS) belong to the CSP. However, the CSP vertical has the additional problem that any exploit in this piece of the stack can be used to jump into either the host itself or any of the other tenant virtual machines running on the host. We’ll call this exploit causing a failure of containment the Horizontal Attack Profile (HAP).
La surveillance est répartie différemment selon l'hébergement, par exemble sur un serveur partagé l'hébergeur doit surveiller toute la pile : le matériel, le noyau, les librairies et le middleware, vous n'êtes responsable que de la couche applicative, tandis qu'avec un conteneur il surveille le matériel et le noyau hôte.
Mais les attaques sont aussi réparties différemment. Dans un hébergement partagé, si vous attaquez le noyau vous pouvez compromettre tout le système, donc tous les hébergements tandis qu'il est plus difficile de sortir d'un conteneur.
Compte tenu de quelques autres facteurs que je ne résume pas ici — veuillez lire cet article avant de commenter —, les équipes de sécurité de l'hébergeur bossent « mieux » avec des conteneurs, qui sont donc plus fiables, quoi qu'en dise votre contrat. Mais que ça ne vous dispense pas des opérations habituelles de base : backup, backup ET backup (sauvegarde, sauvegarde ET sauvegarde de leurs petits noms).
Commentaires : voir le flux atom ouvrir dans le navigateur
-
Sortie de Sailfish OS 2.2.0
(Journaux LinuxFR)
Bien que n'étant pas propriétaire d'un téléphone fonctionnant avec Sailfish OS, je regarde régulièrement les avancées de ce système alternatif à Android et iOS.
Bonne nouvelle, j'ai découvert ce matin qu'une mise a jour a été publiée le 7 juin : la version 2.2.0
Celle-ci supporte (enfin) la version double SIM du Sony Xperia X (F5122) en plus la version simple SIM (F5121) qui était un prérequis pour moi pour ne pas avoir deux téléphones dans la poche. Le communiqué met en avant d'autres fonctions qui sont maintenant apportées comme le déverrouillage par empreinte, un meilleur autofocus de l'appareil photo et une refonte de l'application de galerie.
La note de publication détaille davantage les nouveautés et les anomalies identifiées, avec toujours quelques difficultés sur des équipements Bluetooth.
Est-ce que des lecteurs ont un téléphone qui fonctionne avec Sailfish pour obtenir leur avis et retour d'expérience ? J'utilise le téléphone de façon très basique (téléphone, mail, internet et GPS) pour le travail et un usage perso. Le partage de connexion internet avec le PC est néanmoins indispensable ! Éventuellement quelques mini jeux pour passer le temps mais c'est assez exceptionnel.
Merci
Commentaires : voir le flux atom ouvrir dans le navigateur
-
Revue de presse de l'April pour la semaine 27 de l'année 2016
(Dépêches LinuxFR)
La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.
Sommaire
- [Journal du Net] Contribuer à l’open source, un levier de croissance et de dynamisme pour l’entreprise
- [L'OBS] Chic, le gouvernement choisit le logiciel libre. Zut, c’est en Bulgarie
- [France Info] Un Wikipédia mondial du logiciel
- [Next INpact] Loi Numérique: pas de recours «prioritaire» aux logiciels libres pour l'administration
- lien n°1 : April
- lien n°2 : Revue de presse de l'April
- lien n°3 : Revue de presse de la semaine précédente
- lien n°4 : Podcast
[Journal du Net] Contribuer à l’open source, un levier de croissance et de dynamisme pour l’entreprise
Par Arnaud Breton, le jeudi 7 juillet 2016. Extrait:
La production en open source est extrêmement riche et présente de nombreux avantages pour les entreprises dès lors qu’elles souhaitent s’y investir de manière concrète et durable.
Lien vers l'article original: http://www.journaldunet.com/solutions/expert/64809/contribuer-a-l-open-source--un-levier-de-croissance-et-de-dynamisme-pour-l-entreprise.shtml
[L'OBS] Chic, le gouvernement choisit le logiciel libre. Zut, c’est en Bulgarie
Par Thierry Noisette, le mercredi 6 juillet 2016. Extrait:
Apprendre que le gouvernement choisit, pour tout développement logiciel sur mesure qu’il commandera, de privilégier les logiciels sous licences open source, voilà qui réjouit les partisans des logiciels libres et de leurs avantages (partage, économie, souveraineté…).
Lien vers l'article original: http://rue89.nouvelobs.com/2016/07/06/chic-gouvernement-choisit-logiciel-libre-zut-cest-bulgarie-264570
Et aussi:
[France Info] Un Wikipédia mondial du logiciel
Par Jérôme Colombain, le mercredi 6 juillet 2016. Extrait:
Les logiciels constituent aujourd’hui une part importante de notre savoir collectif mais ils peuvent se perdre. Pour éviter cela, des Français ont décidé de créer une sorte de bibliothèque mondiale du logiciel.
Lien vers l'article original: http://www.franceinfo.fr/emission/nouveau-monde/2015-2016/un-wikipedia-du-logiciel-06-07-2016-07-00
[Next INpact] Loi Numérique: pas de recours «prioritaire» aux logiciels libres pour l'administration
Par Xavier Berne, le lundi 4 juillet 2016. Extrait:
En dépit des avis émis par les participants à la consultation sur l'avant-projet de loi Numérique, le législateur n’a pas souhaité imposer aux administrations de recourir «en priorité» aux logiciels libres. Les fonctionnaires devront simplement s’en tenir à un vague «encouragement».
Lien vers l'article original: http://www.nextinpact.com/news/100503-loi-numerique-pas-recours-prioritaire-aux-logiciels-libres-pour-l-administration.htm
Voir aussi:
-
Montrez vos bobines
(Dépêches LinuxFR)
Même pour un circuit numérique, il y a une dose d’électronique d’analogique. « Malheureusement », penseront certain. Voyons les bobines, selves ou inductances.
Une bobine est un dipôle, qui n’a pas de sens de branchement. Sa grandeur principale se mesure en henry (H), dont le nom est hérité du physicien américain Joseph Henry. Elle va de quelques picohenry (pH), à quelques henry (H). La petite équation est
U = L × ∂i/∂t
.- lien n°1 : Journal précédent sur les résistances
- lien n°2 : Jounal précédent sur les condensateurs
- lien n°3 : Dépêche précédente sur les diodes
Pour se rappeler de l’équation, il suffit de se souvenir que des personnes se sont amusées à brancher des bobines sur le secteur, par exemple, un transformateur 5 V mis à l’envers (un transformateur est composé de deux bobines ou plus, qui partagent leur champ magnétique). Ils sont morts en débranchant le système, ce qui provoque un énorme arc électrique. En effet, le courant passe d’une valeur fixe à zéro en une fraction de seconde, la dérivée du courant est très grande, ce qui produit une très grande tension qui fait « claquer » l’air, c’est‐à‐dire que, comme pour un éclair, l’air devient conducteur (à partir de 3,6 kV/mm sous air sec, moins avec de l’humidité ambiante).
On peut remarquer que si un condensateur « intègre », une bobine « dérive » le courant. Il y a une dualité entre les deux composants.
Les bobines sont composées d’enroulement d’un fil, autour d’un cœur. La valeur d’inductance dépend du nombre de spires (de tours de fils) et de la matière du cœur.
L’enroulement est fait en fils de cuivre, moins résistant électriquement que l’aluminium. Si le fil est fin et avec beaucoup de spires, la résistance série parasite n’est plus négligeable.
Le matériau magnétique permet d’augmenter L, l’inductance, sans augmenter le nombre de spires, par rapport à une bobine « à air ». Mais au contraire de l’air, ces matériaux « saturent ». Arrivé à un certain niveau de courant électrique, la valeur L s’écroule, et la bobine se comporte comme une simple résistance. Les bobines à air ne saturent pas, mais sont bien plus grandes, pour avoir la même valeur d’inductance et, évidemment, la résistance série parasite augmente avec la taille de la bobine.
Pour certains circuits de précision, il peut être utile d’utiliser une grosse bobine à air pour pouvoir comparer le résultat avec la bobine définitive plus petite.
Il existe deux formes physiques : le plot ou le tore. Le plot peut être plus facile à placer sur un circuit imprimé, mais il rayonne plus (produit plus de parasites) qu’un tore.
Seule
La self, comme on dit en anglais, de choc ou d’arrêt est un moyen de filtrage de parasites. Un moteur génère toujours des tensions parasites plus ou moins fortes. Même si les alimentations sont séparées, la masse est commune. Or les parasites peuvent aussi passer par là. Mettre une bobine de choc, pour relier les masses évitent d’avoir des réinitialisations intempestives d’un microcontrôleur, par exemple (vécu).La plus petite en dessous vaut environ 1 € et supporte jusqu’à un courant de 1 A :
Deux bobines dites « de chocs », utilisées comme anti‐parasites. (CC-BY 2.0 — auteur : Oskay)Sur certains câbles, comme les câbles USB, on peut voir un gros bloc plastique, qui a une fonction similaire.
Réservoir d’énergie
Le principe de certaines alimentations à découpage est de générer un signal carré, dont la valeur moyenne est la tension recherchée. Ce genre d’alimentation utilise le fait que les transistors MOS ne consomment presque pas d’énergie, quand ils sont passants ou saturés.Ensuite, il faut filtrer la sortie pour ne récupérer que cette moyenne, ou la « très basse fréquence », qui est la tension recherchée. Si l’on filtre avec un classique filtre RC, une grosse partie de l’énergie partira en chaleur dans la résistance. Un filtre LC filtre sans dissiper l’énergie (hors résistance série parasite). Les deux éléments L et C stockent l’énergie à des moments différents.
Il est question d’éléments de puissance, les fils de la bobine doivent être assez gros pour limiter les pertes ohmiques.
Bobine torique utilisée comme réserve d’énergie. (CC-BY 2.0 — auteur : Oskay)Sur l’image, le fil est doublé pour diminuer la résistance.
J’ai peu utilisé les bobines, en dehors des bobines de choc et d’une alimentation à découpage. C’est le seul composant qui peut se faire à la main, pour avoir le meilleur résultat. Il peut être compliqué de trouver des bons cœurs magnétiques, ou de trouver le câble de 2 mm, protégé par un vernis, typique des applications dans le domaine de puissance qui intéresse un hobbyiste (1 à 100 W). Mais il est plaisant d’avoir sa propre alimentation, à une tension peu commune, pour fournir 6 V sous 20 A pour des servomoteurs branchés sur une batterie 12 V, par exemple.
En conclusion, il faut se rappeler qu’il existe plusieurs sortes de bobines qui peuvent supporter un courant maximum, avant de se transformer en résistance.
Vous pouvez reprendre une activité normale (comme regarder les réseaux sociaux).
-
Lazy FPU state restore
(Dépêches LinuxFR)
Intel est de nouveau confronté à la découverte d'une faille, le
Lazy FPU State Restore flaw.
Cette fois, seule la famille des intel core serait concernée.- lien n°1 : Explication des inventeurs
- lien n°2 : La mécanique Lazy FPU state restore expliquée par les équipes NetBSD
- lien n°3 : Le message de Linus lors du passage en mode eager
Sommaire
Le FPU
L'unité de calculs flottants, le FPU, possède une série de registres qui lui permet de définir son état courant.
Lors du basculement d'une tâche à une autre ( context switch), cet état est alors restauré pour retrouver un contexte correspondant au processus en cours.Ces opérations peuvent être coûteuses car les registres sont plus gros que ceux du CPU, c'est pourquoi les FPU fournissent une option pour désactiver toute opération flottante (
CR0:TS
) ; aussi, dès qu'un calcul flottant est appelé une exception est lancée pour réveiller le FPU avant de lancer l'opération normalement.
Lorsque cette exception (fpudna
, FPU Device Not Available) se produit, un gestionnaire de contexte fpu vérifie quel processus a la main sur le FPU à ce moment-là.
S'il s'agit d'un autre processus, il procède à la sauvegarde puis restauration des registres, ou s'il s'agit d'un nouveau contexte, la sauvegarde puis nettoyage des registres ; sinon, il ne fait rien : c'est le mode «paresseux» (lazy). À la sortie du processus, il ne faut pas oublier de nettoyer ces tables et de (re)lever tous les drapeaux liés à cette exception.En mode
eager
(zélé, volontaire), la sauvegarde/restauration des registres associés au FPU est effectuée quoiqu'il advienne, au moment du changement de tâche et non durant l'exécution de la tache qui vient de prendre la main.Le bâton
Au fil des années, les processeurs ont multiplié les registres pour prendre en charge les instructions de type SIMD, soit une instruction capable de procéder au même calcul sur un ensemble de paires de données.
Les registres
SSE
,AVX
etMMX
restent associés au FPU et seront donc intégrés au mécanisme de sauvegarde/restauration…
… et ils peuvent contenir jusqu'à 2Kb de données, rien que sur l'AVX
.[ 0.000000] Linux version 4.14.48-intel-pk-standard (oe-user@oe-host) (icc version 18.0.2 (gcc version 7.3.0 compatibility)) #2 SMP PREEMPT Wed Jun 20 13:21:48 UTC 2018 [ 0.000000] x86/fpu: Supporting XSAVE feature 0x001: 'x87 floating point registers' [ 0.000000] x86/fpu: Supporting XSAVE feature 0x002: 'SSE registers' [ 0.000000] x86/fpu: Supporting XSAVE feature 0x008: 'MPX bounds registers' [ 0.000000] x86/fpu: Supporting XSAVE feature 0x010: 'MPX CSR' [ 0.000000] x86/fpu: xstate_offset[3]: 576, xstate_sizes[3]: 64 [ 0.000000] x86/fpu: xstate_offset[4]: 640, xstate_sizes[4]: 64 [ 0.000000] x86/fpu: Enabled xstate features 0x1b, context size is 704 bytes, using 'compacted' format.
Pour se faire battre
Par le biais désormais connu de l’exécution spéculative puis de l'analyse de cache, un attaquant pourra lire ces registres depuis un autre processus, voire, depuis une machine virtuelle. En effet, en mode
lazy
la sauvegarde des registres d'une tâche s'effectue au cours de l'exécution d'une autre tâche. La spéculation ignorant le drapeauCR0:TS
, tout est alors possible.Ces registres peuvent contenir des informations sensibles comme des clefs de chiffrement (AES), par le biais des instructions d'accélération matérielle AES-NI.
Delivers Fast, Affordable Data Protection and Security. AHeum.
Colin Percival, ex membre de l'équipe sécurité de FreeBSD, a codé un exploit en quelques heures et note, dans un tweet :
You need to be able to execute code on the same CPU as the target process in order to steal cryptographic keys this way. You also need to perform a specific sequence of operations before the CPU pipeline completes, so there’s a narrow window for execution
Vous devez être en mesure d'exécuter le code [de l'exploit] sur le même CPU que celui de la cible pour voler les clefs de cette manière. Vous devrez en outre appliquer une suite précise d'opérations avant que la chaîne de traitement du CPU ne se termine ; de fait, la fenêtre de tir est très étroite.
Ce qui semble vouloir dire que, pour l'instant, coder le vol de données depuis un script venu du Web n'est pas simple à produire. Le temps nécessaire au vol des données des registres est la clef de l'attaque. Il faut le terminer avant que le séquenceur ne préempte la victime et que les valeurs des registres ne soient modifiées.
Pour y arriver, les chercheurs ont utilisé plusieurs méthodes:
- Exception
Il s'agit de coder la fuite de données à l'ombre d'une exception, sciemment provoquée, tel un
page fault
par exemple. Mais il s'avère que cette solution est trop lente pour récupérer tout un jeu de registres.- Intel TSX
Cette mécanique n'est disponible que sur les architectures récentes (à partir de Haswell) ce qui limite l'angle d'attaque. Cette technologie comporte un jeu d'instructions appelé
RTM
(Restricted Transactional Memory) qui permet d'annuler un bloc d'exécution en cas d'interruption ; il suffit d'y encadrer le code malicieux, qui va innocemment faire appel au FPU, pour lever l'exceptionfpudna
… Ce serait presque « étudié pour ».- Retpoline
Il s'agit au départ d'une contre-mesure pour spectre.
Elle vise à fourvoyer sciemment le CPU sur l'adresse de retour d'unRET
en plaçant une fausse boucle et donc le forcer à exécuter de manière spéculative un code innocent. Le code malicieux sera donc placé à cet endroit.Les correctifs
Le mode
lazy
semble moins pertinent aujourd'hui. Les gains en performance sont faibles sous les architectures récentes et surtout selon les usages actuels ; voire, le FPU étant beaucoup plus utilisé dans nos logiciels, son usage serait contre-productif.
En effet, les compilateurs choisissent d'appeler les instructions SIMD (i.e.-sse
) pour optimiser le code des logiciels. De fait, ceux-ci auront de toute façon sauvegardé et restauré les registres du FPU à chaque changement de contexte. La gestion de l'exception sera inutile et va juste alourdir le processus.
En outre, l'empreinte d'une sauvegarde/restauration serait moindre que celle de la gestion des drapeaux, des registres et de leurs états suite à l'interruption, le transfert de registres FPU en mémoire étant plus rapide car optimisé.Il est donc préconisé d'éviter le mode
lazy
au profit du modeeager
.-
Linux propose le mode
eager
plutôt que le modelazy
depuis la version 3.7 et l'active par défaut depuis la version 4.9.- Ajoutez
eagerfpu=on
sur la ligne de démarrage pour les versions antérieures à la 4.9.
- Ajoutez
FreeBSD a poussé un patch pour la Release 11.2. C'est un FreeBSD 11.1 qui a servi de cobaye ;
DragonFly BSD a poussé un patch dans la version 5.2.2 ;
Microsoft poussera un patch en juillet ;
OpenBSD a poussé un patch le 14 juin pour la version 6.3 ;
NetBSD a poussé un patch le 16 Juin sur
MAIN
.
Conclusion
Ils ne sont pas à la fête cette année, chez Intel. Le point positif est que la correction de cette faille devrait conduire à une amélioration des performances, voire de la consommation d'énergie.
Theo de Raadt avait prévenu 11 ans auparavant que l'architecture Intel Core2 promettait ce genre de faille :
These processors are buggy as hell, and some of these bugs don't just
cause development/debugging problems, but will ASSUREDLY be
exploitable from userland code.Ces processeurs sont bugués comme jamais et nombre de ces bugs ne provoquent pas seulement des soucis de développement et d'analyse, mais ils vont assurément être exploitables depuis l'espace utilisateur.
Pour la petite histoire, l'embargo s'est terminé le 6 Juin.
Colin Percival, qui assistait à une conférence de Théo de Raadt lors de la BSDCan 2018, a codé un exploit dans la foulée, qu'il n'a pas encore rendu public. Mais il a convaincu Intel de lever l'embargo au plus vite.
Il est notable qu'aucun des deux n'avait été mis dans la confidence ; OpenBSD signale même qu'ils en ont fait la demande ( des rumeurs circulaient autour d'une énième version de spectre) mais sans obtenir de réponse.Invitation to Embargo? No.
We asked.
No reply.Commentaires : voir le flux atom ouvrir dans le navigateur
-
Adblock vous épargne désormais les alertes aux cookies !
(Journaux LinuxFR)
C'est un journal bookmark de toute évidence. Je suis tombé sur cet article qui décrit la souffrance du monde entier sur les sites hébergés en Europe.
Adblock propose sur cette page des listes additionnelles que vous pouvez suivre. Parmi elles, tout en bas, figure celle qui vous évitera les messages type "En surfant ici vous acceptez les cookies".
Ces messages sont particulièrement agaçants, bien que dans une démarche de transparence, car tous les sites non visités vous avertissent d'une généralité du Web. Le problème, c'est que ces messages se basent sur l'usage… de cookies pour être cachés ! Une aberration qui conduit les utilisateurs de Firefox, ayant paramétré un reset complet des cookies à la fermeture du logiciel, à subir encore et encore ces messages indéfiniment.
Résultat, Linkedin semble ne pas trop apprécier, pour le reste du Web c'est juste incroyable d'arriver sur un site sans se faire agresser !
Je me rends soudain compte qu'Adblock n'est pas réductible à un simple bloqueur de pubs, et ce depuis ses débuts puisqu'il l'a toujours permis. D'autres filtres permettent de ne plus afficher les faux scans antivirus (bien utiles pour vos proches débutants) ou encore les messages de rébellions contre Adblock lui-même.
Je suis toujours épaté du service que me rend ce script. Je ne sais pas pourquoi mais je sens que j'aurais dû attendre une demi heure avant de poster.
-
Mise à jour des pages de manuel de Fedora
(Linux Certif)
Je suis motivé en ce moment :)
Une fois de plus, j'ai mis à jour les pages de manuel, cette fois à partir des pages de la distribution Fedora.
Depuis peu, mon ordinateur fonctionne grâce à Arch Linux, ce qui a posé pas mal de problème pour l'importation des pages. J'ai vérifié les pages manuellement et tout semble correct mais il est impossible d'être sûr lorsqu'on manipule autant de pages. N'hésitez pas à écrire si vous trouvez des problèmes.
C'est 18545 pages de plus qui ont été ajouté au site (toutes langues confondues). Au total, le site héberge désormais plus de 200 000 pages! :)
Il semble que Fedora ai réalisé un important effort de documentation. Beaucoup de nouvelle pages et de nouvelles traductions ont été introduite.
-
Inventaire de matos
(Journaux LinuxFR)
Bonjour
Je suppose que je suis mauvais pour trouver des logiciels qui correspondent à mon besoin. Il y a quelques semaines j’avais besoin de retranscrire une interview, je ne trouvais pas de logiciel pour le faire sur le coup, or il existe le site otranscribe ou le logiciel Parlatype, j’ai découvert ces deux possibilités quelques jours après avoir galéré avec mpv et gedit…
Je travaille dans une UMR (un institut de recherche) et j’avais besoin d’inventorier notre matériel (lasers, photodiode, filtre, analyseur, lunettes de protection,…). Je ne trouvais rien qui réponde vraiment à mon besoin. J’ai fini par commettre INVENTAIRE.
Mon besoin est le suivant :
- outil en ligne pour être accessible depuis n’importe quel poste (intranet, pour l’instant, tout le monde à tous les droits)
- associer directement différents documents (data-sheet, caractérisation,…)
- gérer les différents entretiens (nettoyage, calibration,…) avec des icônes en fonction du temps restant
- un journal disponible pour chaque composant listé (pour suivre les aventures de laser22 et la fabuleuse calibration d’analyseur_de_spectre12)
- plusieurs inventaires peuvent être créés (plusieurs équipes ou domaines par exemple…)
- des sections « administratif » et « technique » clairement différenciées pour permettre de remplir uniquement une partie si on le souhaite.
- Si on affiche une seule catégorie, il est possible de trier en fonction des caractéristiques spécifiques à celle-ciÇa donne un listing :
Une page réussissant toutes les infos pour chaque composant :
D’autres captures d’écran sur https://github.com/yeKcim/inventaire/
Je ne suis pas développeur, le code (php, mysql) est donc très certainement crade, mais je me dis que cela peut
- soit rendre service à quelqu’un d’autre et avoir des avis
- soit avoir un commentaire m’expliquant que je viens d’inventer la roue octogonale alors que la roue circulaire existe depuis longtemps. -
Quel terminal pour 2018 ?
(Dépêches LinuxFR)
Vous connaissez les terminaux, ces petites fenêtres le plus souvent noires où l’on tape des lignes de commande bizarres ? Eh bien, vous risquez d’être surpris : le choix du logiciel pour faire ça n’est pas aussi simple que ça en a l’air et des gens continuent de proposer de nouvelles alternatives. Cette dépêche vise à présenter rapidement quelques fonctionnalités intéressantes que les terminaux historiques ne géraient pas forcément et à présenter quelques terminaux.
- lien n°1 : xterm
- lien n°2 : rxvt
- lien n°3 : urxvt, aussi connu sous le nom de rxvt-unicode
- lien n°4 : Konsole
- lien n°5 : GNOME terminal
- lien n°6 : Xfce terminal
- lien n°7 : st
- lien n°8 : QTerminal
- lien n°9 : termite
- lien n°10 : Sakura
- lien n°11 : GTKTerm
- lien n°12 : Alacritty
- lien n°13 : cool-retro-term
- lien n°14 : Terminus
- lien n°15 : Terminology
- lien n°16 : kitty
- lien n°17 : Hyper
- lien n°18 : GNOME Terminator
- lien n°19 : Tilix
- lien n°20 : Yakuake
- lien n°21 : Guake terminal
- lien n°22 : Tilda
- lien n°23 : Upterm
Sommaire
Les fonctionnalités
Apparence et polices
Historiquement, les terminaux avaient une couleur pour le texte et une autre pour le fond. Si l’on s’en tient à ce siècle, les terminaux étaient principalement en 16 couleurs au début, puis certains terminaux ont commencé à gérer des palettes de couleur plus étendues (256 couleurs par exemple) et, aujourd’hui, certains terminaux savent manipuler des couleurs sur 24 bits.
De même, les terminaux utilisaient surtout des jeux de caractères où un caractère était codé sur un octet, mais la prise en charge d’Unicode est maintenant répandue. Il faut néanmoins se méfier, certains terminaux annoncent gérer l’Unicode mais ne savent pas afficher les caractères codés sur quatre octets comme les émojis.
La prise en charge des polices peut également réserver certaines surprises. Tous les terminaux ne savent pas afficher des ligatures comme on peut trouver dans Fira Code ou les polices avec les symboles Powerline.
Et l’on peut également citer la possibilité d’avoir des coins arrondis ou de la transparence parmi les fonctionnalités proposées par des terminaux.
Terminaux multiples
Certains logiciels proposent de gérer plusieurs terminaux. Cela peut se faire avec un seul processus qui contrôle plusieurs fenêtres pour gagner en mémoire vive, mais l’approche la plus courante consiste à avoir une seule fenêtre avec plusieurs onglets. Enfin, il existe des terminaux qui reprennent l’approche des gestionnaires de fenêtres par pavage : une seule fenêtre peut être découpée pour afficher plusieurs terminaux et des raccourcis clavier permettent de contrôler le placement des terminaux et passer de l’un à l’autre.
Performances
A priori, un terminal ne serait pas l’endroit où l’on accorderait la plus grande importance aux performances. Pourtant, la latence des terminaux n’est pas toujours suffisamment faible pour se faire oublier.
On peut également citer la vitesse de défilement ou la quantité de mémoire utilisée.
Simplicité et fonctionnalités
Certains terminaux se veulent volontairement limités en termes de fonctionnalités. D’autres font plus de choses, et certains vont jusqu’à proposer des greffons ou des API pour permettre des usages avancés.
Dans les fonctionnalités que l’on retrouve chez certains mais pas chez d’autres, il y a la possibilité de remonter dans l’historique du terminal (le scroll‐back est parfois laissé à un logiciel tiers comme tmux dans certains terminaux), pouvoir cliquer sur les liens, pouvoir lancer des commandes au démarrage du terminal, l’affichage d’images directement dans le terminal, la prise en charge de Wayland, etc.
Les terminaux
Les grands classiques
Tout d’abord, il y a les grands classiques. Le plus connu est xterm, suivi par rxvt et son dérivé rxvt-unicode.
Ceux intégrés à un environnement de bureau
Les principaux environnements de bureau ont leur terminal : Konsole pour KDE, GNOME terminal pour GNOME, Xfce terminal pour Xfce et Terminology pour Enlightenment.
Les terminaux légers
st est un terminal codé en peu de lignes de C, avec un choix fort de ne pas prendre en charge certaines fonctionnalités et de ne pas faire de gros efforts pour les performances.
qterminal est un terminal léger s’appuyant sur Qt.
Les pavants
GNOME Terminator et Tilix sont deux terminaux qui mettent en avant la possibilité de découper leur fenêtre pour afficher plusieurs shells à l’intérieur.
Ceux utilisant la bibliothèque VTE
Il existe plusieurs terminaux s’appuyant sur la bibliothèque VTE (ou des dérivées de cette bibliothèque). Citons termite, sakura et GTKTerm.
Ceux pour les amoureux de Quake
Quake avait une console qui s’ouvrait en appuyant sur la touche
²
et qui se déroulait depuis le haut de l’écran. Certains terminaux s’en sont inspirés, comme Yakuake, Guake et Tilda.Les rapides, en OpenGL
Alacritty est un terminal récent qui utilise le processeur graphique (via OpenGL). C’est probablement le terminal le plus performant aujourd’hui. En revanche, il ne couvre que peu de fonctionnalités (pas encore d’historique, par exemple).
kitty est un autre terminal qui tire parti du processeur graphique. Il propose également pas mal de fonctionnalités.
L’artillerie lourde
Hyper est un terminal en HTML/CSS/JS (c’est du Electron derrière). Ça ouvre des possibilités intéressantes pour les greffons et l’affichage d’images ou de vidéos, mais ça a également des inconvénients (on peut, par exemple, se poser la question des performances).
Terminus est un dérivé d’Hyper.
Upterm, anciennement nommé Black Screen, est également un terminal qui tourne avec Electron. Il fournit également le shell et une auto-complétion graphique des commandes.
Les originaux
cool-retro-term est un terminal avec un aspect qui fait penser aux vieux tubes cathodiques. Pour les nostalgiques donc !
Et le gagnant ?
Il n’y a pas vraiment de gagnant. Différentes personnes ont différents critères. Pour certains, la prise en charge des ligatures est primordiale, alors qu’elle peut être totalement inutile pour quelqu’un d’autre.
À titre personnel, j’ai testé pas mal de terminaux et je suis resté sur urxvt. kitty me semble particulièrement intéressant, mais un bogue de ma carte graphique m’empêche de l’utiliser. Alacritty me semble encore un peu trop jeune et limité en fonctionnalités. Je ne suis pas à l’aise avec les versions extrêmes : st est trop limité à mon goût, alors que Hyper est trop lourd. Je n’ai pas particulièrement apprécié les terminaux liés à un environnement de bureau (mais je n’utilise pas d’environnements de bureau) et je suis tombé sur plusieurs bogues gênants pour les terminaux avec la bibliothèque VTE.
Wikipédia propose une liste de terminaux et une comparaison de certains d’entre eux.
Et vous, chers lecteurs, qu’utilisez‐vous ? Et pourquoi ?
N. D. A. : Merci aux nombreuses personnes qui ont commenté pour faire découvrir leur terminal préféré. J’ai ajouté ces terminaux à la dépêche, mais je vous encourage à lire les commentaires, c’est plus détaillé et cela permet de mieux comprendre les spécificités de chaque outil !
-
L'équipe Ubuntu Desktop aimerait avoir vos commentaires
(Journaux LinuxFR)
Vu sur l'article The Ubuntu Desktop Team Wants YOUR Feedback d'OMG! Ubuntu!
L'équipe Ubuntu Desktop est chargée de faire la transition de Unity vers GNOME, et ils auraient besoin de vos commentaires pour les aider à faire cette transition.
Le questionnaire liste quelques extensions GNOME, que vous pouvez évaluer selon qu'elles vous paraissent utiles ou non.
Dans le cas où vous voudriez répondre au questionnaire, vous devez vous rendre sur la page Ubuntu 17.10 GNOME Desktop Survey. Attention pour répondre au questionnaire on vous demande de vous authentifier sur un compte Google.
-
Grammalecte, correcteur grammatical [2]
(Dépêches LinuxFR)
Grammalecte est un correcteur grammatical écrit en Python et en JavaScript, dédié à la langue française, disponible pour LibreOffice, Firefox, Thunderbird, ainsi que comme programme autonome, via une interface en ligne de commande ou un serveur. Par ailleurs, d’aimables contributeurs ont apporté leur pierre à l’édifice en concevant des greffons pour Vim et Emacs.
Grammalecte lance une deuxième campagne de financement pour améliorer la correction grammaticale et faire évoluer les intégrations aux navigateurs Web.
Cet article est très long. Plutôt que répéter ce qui a déjà été dit, je vais présumer que vous avez un souvenir à peu près clair du billet précédent sur ce sujet. Cela dit, même sans ça, ce que je vais dire devrait être intelligible.
- lien n°1 : Site officiel
- lien n°2 : Campagne de financement participatif
Sommaire
-
Ce qui a été fait
- Séparation du correcteur d’avec Hunspell et LibreOffice
- Extension pour Firefox & Thunderbird
- Captures d’écran
- Révision du moteur interne du correcteur
- Tests unitaires
-
JavaScript, mon
amourHiroshima - De Writer à Firefox (ou de la littérature au Web) : le choc culturel
- Lexique du correcteur
- C’est toujours perfectible
- L’avenir
- Le mot de la fin
Ce qui a été fait
Séparation du correcteur d’avec Hunspell et LibreOffice
C’était le prérequis à l’indépendance du logiciel, et c’est la première chose qui a été faite. Au lieu de consulter Hunspell, le correcteur orthographique, pour connaître l’étiquetage grammatical des mots, Grammalecte interroge dorénavant son propre dictionnaire indexable. Il s’agit d’un graphe de mots contenant toutes les formes graphiques que peuvent avoir les mots français : les pluriels, les formes féminines et masculines, et les conjugaisons.
Le graphe contient 500 966 entrées, avec 140 caractères différents, 901 codes de suffixation, 6 066 étiquettes grammaticales, et est composé de 110 796 nœuds et 236 744 arcs (liens qui vont d’un nœud à un autre). Tout ça est compressé sous forme d’un dictionnaire binaire indexable pesant environ 1,25 Mio (le fichier texte non compressé pèse environ 18,6 Mio). Mais le principal avantage de ce dernier n’est pas sa petite taille, c’est qu’on peut le parcourir très rapidement et l’interroger sans avoir à le décompresser. Il peut fournir deux sortes d’informations : un mot est‐il présent dans le dictionnaire et, si oui, quelle est sa nature grammaticale.
Grâce à cela, Grammalecte peut fonctionner de manière autonome.
Extension pour Firefox & Thunderbird
Le correcteur a été entièrement réécrit en JavaScript avec une interface pour Firefox, qui s’appuie principalement sur l’API SDK de haut niveau et quelques fonctionnalités de bas niveau. L’interface est faite en HTML/CSS.
L’API de Thunderbird étant complètement différente de celle de Firefox, cette extension est une autre réécriture en JavaScript de l’extension, hormis le cœur du moteur grammatical, bien sûr. L’interface est bâtie avec l’ancienne technologie XUL encore en vigueur sur Thunderbird. La documentation concernant Thunderbird étant en partie tombée en déshérence (liens cassés, pages manquantes, sections disparues, sites Web à l’abandon ou évaporés), j’ai parfois fait emploi de techniques trouvées dans d’autres extensions, mais ça ne concerne qu’une minorité de problèmes, et je me suis contenté autant que possible de suivre ce qui était documenté. Le fonctionnement de l’extension est assez similaire à celle pour Firefox. Votre texte est analysé dans un panneau annexe. En revanche, contrairement à Firefox, les erreurs sont listées en dessous du paragraphe analysé. Hormis cela, tout est relativement semblable, sauf l’allure générale de l’extension, qui fait plus vieux jeu, parce que XUL est d’une conception plus ancienne.
La mauvaise nouvelle, pour Firefox, c’est qu’il faudrait déjà refaire l’interface. Quand j’ai commencé le codage de l’extension, Mozilla préparait une nouvelle API pour les extensions, appelée WebExtension, qui était alors en version alpha. C’est la quatrième API pour Firefox, les trois autres étant XUL, Bootstrapped et le SDK (haut niveau et bas niveau). Il était dit que ces trois API deviendraient obsolètes d’ici quelques années, sauf le SDK de haut niveau, et qu’il fallait utiliser ça en attendant que l’API WebExtension fût finalisée. C’est donc ce que j’ai fait. Grammalecte pour Firefox est sorti à peu près au même moment que WebExtension. Quelques mois plus tard, les trois autres API ont été déclarées obsolètes, y compris le SDK de haut niveau, contrairement à ce qui avait été annoncé, et toutes les trois seront supprimées en novembre prochain avec Firefox 57.
C’est vraiment très irritant, mais l’on n’y peut pas grand‐chose. Ceci découle probablement de la volonté de Mozilla de réécrire tout le cœur de Firefox. Ce qui n’apporte pas que de mauvaises choses, puisque, par exemple, j’ai constaté que le correcteur grammatical fonctionnait plus de deux fois plus vite à partir de Firefox 55…
Le cœur de l’extension, le moteur grammatical, n’est pas à reprogrammer, il ne s’agit « que » de l’enrobage, l’interfaçage… J’ignore si ça réclamera beaucoup de travail, je ne m’y suis pas encore intéressé. L’un des autres soucis, c’est que même si WebExtension est dorénavant le modèle d’extensions conseillé, il semble qu’il ne permette pas encore autant de choses que les API précédentes. Cette API est toujours en développement, Mozilla travaillant encore à étendre les possibilités offertes.
En ce qui concerne Thunderbird, je n’ai rien vu passer… et j’ignore si nous sommes à la veille d’une révolution surprise qui va tout casser.
Mozilla n’a pas encore vérifié le code de l’extension pour Thunderbird : la liste d’attente est très longue. Heureusement, contrairement à Firefox il est possible d’installer une extension non vérifiée et non signée. Il n’y a aucun risque de confidentialité. Le correcteur n’envoie aucune donnée en ligne, absolument rien. Ce que vous écrivez n’est pas transmis, tout se passe sur votre ordinateur.
Pour ceux que ça intéresse de tester, je viens de publier la version 0.5.17 :
- pour Firefox (il faut un Firefox capable d’installer les extensions non signées) ;
- pour Thunderbird (Thunderbird peut installer les extensions non signées).
Captures d’écran
Boîtes de dialogue « À propos » :
Correcteur grammatical :
Conjugueur :
Formateur de texte :
Options grammaticales et orthographiques :
Interface en ligne de commande :
Révision du moteur interne du correcteur
Désambiguïsation
Dans la précédente dépêche, je vous avais expliqué que Grammalecte ne possédait pas de processus de désambiguïsation permettant d’étiqueter les mots en fonction du contexte. Par exemple, un mot comme « porte » peut être un verbe ou un nom féminin, et il est utile, lors de l’analyse d’une phrase, d’avoir procédé si possible à la désambiguïsation de sa nature grammaticale, afin que les règles de contrôle n’aient pas à se poser la question à chaque fois.
Comme expliqué lors de la campagne de financement précédente, Grammalecte intègre désormais des fonctions de désambiguïsation capables d’étiqueter et baliser le texte. Ce désambiguïsateur fonctionne d’une manière similaire aux règles de contrôle et au processeur de texte. Une expression rationnelle déclenche une action de désambiguïsation si elle remplit la condition requise, de sorte que toutes les règles suivantes bénéficient d’un étiquetage plus précis. Il y a trois types d’actions de désambiguïsation : la sélection (qui ne retient que les étiquettes conformes à une expression rationnelle), le filtre (qui supprime les étiquettes grammaticales non conformes), l’étiquetage (qui impose une ou plusieurs étiquettes, quelles que soient celles que le mot possède alors).
Règles multi‐actions
Dans le précédent billet, je vous avais expliqué que Grammalecte fonctionnait selon une succession de passes, dont chacune était précédée d’une transformation du texte par ce que j’appelais le « préprocesseur de texte ». Ce qui permettait de simplifier peu à peu le texte pour faciliter le contrôle des règles grammaticales qui suivaient.
Pour simplifier, cela fonctionnait ainsi :
- Passe 1 (paragraphe par paragraphe) :
- règles du préprocesseur de texte ;
- règles de contrôle.
- Passe 2 (phrase par phrase) :
- règles du préprocesseur de texte ;
- règles de contrôle.
- Passe 3 (phrase par phrase) :
- règles du préprocesseur de texte ;
- règles de contrôle.
- etc.
Dans ce système, chaque règle ne pouvait faire qu’une seule chose (comme dans LanguageTool), et seulement si la condition qui contrôlait sa mise en œuvre était remplie.
Peu de temps après le début de la campagne de financement, il m’est apparu qu’il serait souhaitable de rendre plus souple ce fonctionnement. Il n’était pas prévu au programme de toucher à cela, mais j’ai préféré m’atteler tout de suite à cette tâche plutôt que de regretter plus tard de ne pas l’avoir fait. Donc, à présent, au lieu d’une succession de passes alternant transformation du texte et contrôle de la grammaire, nous sommes revenus à simplement deux passes (une pour le contrôle du paragraphe, une pour le contrôle des phrases), mais chaque règle peut dorénavant tout faire et peut accomplir autant d’actions qu’on le souhaite, chaque action se déclenchant si la condition qui y est attachée est remplie.
Donc, une règle peut dorénavant opérer plusieurs actions de contrôle, plusieurs actions de réécriture et plusieurs actions de désambiguïsation.
Au commencement, je pensais que cette modification du fonctionnement n’aurait que peu de conséquences, car elle n’était pensée que pour me faciliter la tâche dans certains cas épineux, puis il m’est apparu que ça changeait en fait de si nombreuses choses que la transition de l’ancien modèle vers le nouveau n’est toujours pas achevée à ce jour. Ça n’a pas d’importance puisque ça fonctionne aussi bien qu’auparavant, mais la souplesse de ce fonctionnement apporte tellement d’avantages que je suis loin d’en avoir profité encore pleinement.
Cela dit, depuis que Grammalecte fonctionne ainsi, des dizaines de règles complexes ont déjà été fusionnées, et cela a simplifié grandement le déroulement de nombreuses opérations.Prenons un exemple simple. Auparavant, si vous écriviez « les ordinateur », il fallait deux règles de contrôle pour souligner « les » et suggérer « le », et souligner « ordinateur » et suggérer « ordinateurs ». À présent, une seule règle permet de faire les deux choses d’un coup.
Autre exemple. Mettons que nous rencontrons la graphie « militant(e)s ». Une même règle va permettre de faire trois choses :
- suggérer d’écrire ceci autrement (« militants et militantes », « militantes et militants », « militant·e·s ») ;
- étiqueter ce mot inexistant dans le dictionnaire comme « nom ou adjectif épicène pluriel » ;
- réécrire le mot en interne pour ôter les parenthèses gênantes.
Détection des erreurs
De nombreuses règles de contrôle ont été ajoutées… notamment concernant la détection de confusions concernant les mots grammaticaux. La dernière version du correcteur (v0.5.17) contient 21 actions de désambiguïsation, 687 actions du processeur de texte, 1 437 actions de contrôle ; ces actions sont réparties dans 1 939 règles.
À titre de comparatif, la version 0.4.10, qui suivait l’ancienne logique, contenait 540 règles de transformation de texte et 933 règles de contrôle, chacune n’effectuant qu’une seule action.
Ces chiffres ne sont pas nécessairement très évocateurs, parce que rien ne comptabilise les modifications du fonctionnement des règles qui sont les plus nombreuses, ne serait‐ce, par exemple, que sur les méthodes pour faire des suggestions.
En fait, le potentiel du correcteur est encore sous‐exploité, malgré les innombrables améliorations apportées ici et là. Je n’avais pas assez insisté sur ce point lors du dernier journal, alors je vais le répéter encore une fois : les détails sont ce qui réclame le plus de temps, car il faut songer que les possibilités d’erreurs avoisinent l’infini et que les possibilités de faire des faux positifs sont aussi nombreuses. Dans les faits, améliorer le correcteur grammatical, c’est s’occuper sans cesse de micro‐problématiques. Je réécris ici ce que j’ai dit la dernière fois : « Écrire des règles, c’est assez rapide ; détecter les faux positifs, c’est beaucoup plus long ; ceux‐ci ont tendance à survenir là où l’on s’y attend le moins. C’est ce qui est le plus exigeant : maintenir un ensemble de règles, améliorer l’existant, tester, trouver de nouvelles possibilités. Lorsqu’on s’occupe d’un correcteur grammatical, on passe surtout son temps à peaufiner des détails, à ajuster le fonctionnement de l’existant, à arrondir les angles. Oubliez l’idée de concevoir l’algorithme ultime qui saura gérer tous les cas. Même quand on est à peu près sûr d’écrire une petite règle tranquille qui ne générera aucun faux positif, la réalité va très probablement nous rappeler à l’ordre et nous obliger à slalomer sur ce qui paraissait au commencement comme une belle ligne droite. S’occuper de correction grammaticale, c’est marcher sur un chemin pavé d’embûches subtiles. »
C’est pourquoi l’évolution du correcteur se fait pas à pas, en évitant autant que possible les modifications radicales.
Le correcteur fonctionne beaucoup mieux depuis que toutes ces améliorations ont été faites, et j’espère que c’est sensible pour vous, car il m’est difficile de juger si ces améliorations sont visibles pour les utilisateurs.
Parmi toutes les nouveautés apportées, il y a notamment :
- beaucoup de règles pour détecter des confusions entre les mots homonymes (comme ce, se et ceux) ;
- beaucoup d’améliorations pour gérer les cas particuliers, clarifier le texte interne et augmenter le taux de détection ;
- toujours moins de faux positifs ;
- une option pour détecter les erreurs de reconnaissance optique de caractères bien plus développée (désactivée par défaut) ;
- beaucoup de règles de contrôle ont été améliorées.
Le moteur de suggestions
L’amélioration des suggestions est l’un des points qui ont le plus progressé depuis le précédent journal, grâce aux règles multi‐actions qui ont permis de rendre plus systématiques la possibilité de faire deux suggestions différentes lors de la constatation d’un désaccord de genre, de nombre ou de conjugaison ; mais aussi surtout grâce à la création d’une table de correspondance phonétique à partir de laquelle Grammalecte peut choisir des mots à suggérer en fonction de leur nature grammaticale.
La table de correspondance phonétique est un simple fichier qu’il est facile de compléter, c’est une succession de mots homonymes, comme :
- appareil, appareils, appareille, appareilles, appareillent ;
- mec, mecs, Mecque ;
- pouce, pouces, pousse, pousses, poussent ;
- tête, têtes, tète, tètes, tètent.
À partir de cette liste, Grammalecte construit un mini‐dictionnaire avec toutes les natures grammaticales possibles de chaque mot. Puis, au besoin, on peut demander, par exemple, de trouver un mot semblable à « tète » en spécifiant les natures grammaticales acceptables (via une expression rationnelle). Il y a aussi quelques propositions de substitutions automatisées, pas toujours opportunes, ce point reste à améliorer.
Si ça vous intéresse, cette table est consultable ici.
Cette table phonétique ne résout pas tous les problèmes, mais permet dans bien des cas de faire des suggestions de mots sans rapport grammatical avec le terme erroné. Avant cela, le correcteur se contentait de signaler l’erreur, mais ne pouvait rien suggérer. Quelques exemples :
- « Il appareil demain. » → appareille ;
- « La mec. » → Le | Mecque ;
- « Une goulet » → Un | goulée ;
- « Il pouce le bouchon trop loin. » → pousse ;
- « J’en ai marre de ces tètes de nœud. → têtes ;
- « Ils ne son pas idiot. » → sont.
Notez que le moteur de suggestions ne propose des mots ayant une autre racine que lorsqu’il constate une anomalie (si un verbe prend la place de ce qui devrait être un nom, par exemple) ou s’il constate une erreur de genre. S’il y a seulement une erreur de pluriel, il se contente de faire une correction de nombre. Mais il serait aussi possible dans ces cas‐là de suggérer des mots différents. Par exemple « Des homme » → hommes | ohms | heaumes.
Ça m’a semblé superflu de proposer de telles corrections, mais si vous jugez ça utile, dites‐le‐moi.
Modifications diverses
- l’écriture des règles a été modifiée, il est plus aisé de gérer la casse et les marges des motifs des expressions rationnelles ;
- les règles sont regroupées par option, afin de pouvoir ajouter des règles optionnelles sans gréver les performances (l’option de reconnaissance optique de caractères, par exemple) ;
- il est possible d’utiliser pour chaque action des opérateurs logiques (
__also__
et__else__
) pour écrire des conditions tenant compte du résultat de la condition de l’action précédente ; - toutes les règles ont été nommées, afin de satisfaire aux nécessités du greffon pour Vim (désactivation paramétrable de règles spécifiques) ;
- tout le processus de construction a été revu et des tests ont été intégrés pour éviter certaines erreurs d’écriture des règles ;
- des marque‐pages pour s’y retrouver dans la liste des règles, qui commence à devenir très, très longue (fonctionnalité ajoutée hier).
Capture d’écran
Voici à quoi ressemble le fichier des règles (sous SublimeText) :
Tests unitaires
Auparavant, la situation sur ce point était très mauvaise, puisqu’il n’y avait aucun test unitaire sur le correcteur, seulement des tests « manuels », c’est‐à‐dire un fichier texte que j’ouvrais de temps en temps avec Writer pour vérifier que le moteur fonctionnait comme prévu. Mais c’était loin d’être exhaustif et facile à mettre en œuvre, puisque je vérifiais « à l’œil » si à chaque ligne le correcteur trouvait bien l’erreur qu’il était censé trouver. Pénible et lent au possible.
À présent, à chaque modification, il est possible lors de la construction de tester si rien n’est cassé. Plus de 6 200 tests sont lancés (dont 2 000 repris chez LanguageTool), et chaque règle de détection doit être testée au moins une fois.
Malgré cela, les tests ne sont pas encore exhaustifs (à bien y songer, il n’est sans doute pas possible d’être exhaustif), mais la situation s’améliore indubitablement, et peu à peu le socle du correcteur devient de plus en plus solide. Grâce à cela, de nombreuses erreurs dans le fonctionnement du correcteur ont été détectées et corrigées.
Beaucoup de ces tests sont là pour vérifier qu’une règle fonctionne correctement, mais une grande partie d’entre eux existent pour éviter les faux positifs constatés lors des versions précédentes. Ce sont les tests les plus nombreux, parce que les faux positifs sont légion et qu’il est très fréquent d’en provoquer de nouveaux, quelle que soit la prudence avec laquelle on écrit les règles. Pour les éviter autant que possible, quelques textes courts ont été inclus dans les tests de Grammalecte :
- Le Horla, de Guy de Maupassant ;
- Le double assassinat dans la rue Morgue, d’Edgar Poe ;
- Les vers dorés, de Pythagore ;
- L’épître du feu philosophique, de Jean Pontanus.
Avoir écrit l’extension pour Firefox présente par ailleurs un avantage considérable pour consolider la correction grammaticale : c’est beaucoup plus facile de mettre le correcteur à l’épreuve. Presque tous les jours, je lance des analyses grammaticales sur de nombreux articles de journaux et de blogs divers ; ça me permet de repérer et corriger des faux positifs, ainsi que de nouveaux mots à ajouter au dictionnaire. Auparavant, je faisais des copier‐coller dans Writer, ce qui était bien moins commode et bien plus long.
Ces tests sont faits en Python et en JavaScript. Les deux moteurs les passent tous et fonctionnent de la même manière. Cela dit, il n’est pas malgré cela pas possible de garantir (pour l’instant) que le moteur en JavaScript fonctionne aussi bien qu’en Python.
JavaScript, mon
amourHiroshimaPasser de Python à JavaScript n’a pas été de tout repos. Et si le projet a pris du retard, ce n’est pas tellement, comme je le craignais, à cause de la difficulté de concevoir une extension pour Firefox et Thunderbird. Ce point fut plus facile que je ne le pensais, tout simplement parce que la documentation de Firefox et celle Thunderbird, quoique cette dernière soit en déshérence, sont mieux tenues et plus complètes que celle pour LibreOffice… et surtout l’API est plus simple à utiliser… Quoique… l’API de bas niveau est tout aussi compliquée, de mon point de vue… Mais comme on peut s’en passer… Bref.
La syntaxe de JavaScript ne m’a pas posé de problème. J’ai utilisé toutes les nouvelles possibilités offertes par la norme ES6 :
for … of
, les générateurs, les paramètres par défaut, les paramètres du reste, la décomposition, les fonctions fléchées,Map
,Set
, les classes,let
etconst
, et même depuis peu les nouvelles commandesasync
etawait
. Avec tout ça, JavaScript est un langage pas aussi horrible que je l’avais craint, même assez agréable parfois… En même temps, comme je démarrais un projet à zéro, je n’ai pas eu à me coltiner toutes les bizarreries possibles de ce langage. J’ai évité toute forme de syntaxe tord‐neurones.Ce qui m’a compliqué la vie, c’est plutôt l’écosystème de JavaScript, sa difficulté à déboguer, son comportement étrange, les incohérences et sa bibliothèque standard pauvre.
Difficulté à déboguer
Ni Firefox, ni Thunderbird (ni LibreOffice d’ailleurs) ne signalent quoi que ce soit s’il y a une erreur de syntaxe dans le code. Ça ne fonctionne tout simplement pas, et c’est tout. C’est assez pénible en Python, mais c’est bien pire en JavaScript où il est fréquent d’oublier une virgule ou un point-virgule quelque part. En outre, les messages d’erreur de JavaScript sont longs et souvent abscons, sans compter que selon le contexte d’exécution dans Firefox/Thunderbird, les messages d’erreur sont parfois encore plus imprécis, voire inexistants (le module XYZ plante, mais débrouillez-vous pour le reste, car aucune info ne sera fournie, comme où et pourquoi). Je ne vais pas rentrer dans les détails, parce que j’ai maintenant oublié la plupart d’entre eux… mais à mon avis, Mozilla ferait des heureux en améliorant les rapports d’erreur.
Inutile de s’étendre sur le comportement erratique de JavaScript et son typage faible, cela a déjà été fait par tellement de monde… Quand on vient de Python, il est facile de tomber dans tous les pièges que ce langage tend, dans lesquels même les plus experts chutent encore de temps en temps, j’imagine. La traque aux “undefined” semblant sortir de nulle part m’a particulièrement marqué.
La bibliothèque standard
La bibliothèque standard est, en restant poli, très mauvaise, notamment parce qu’elle est très incomplète, mais aussi assez peu cohérente, me semble‐t‐il. Dans beaucoup de cas, ce n’est pas bien grave, il suffit d’ajouter les fonctions dont on a besoin et c’est ce que j’ai fait, mais on se demande quand même pourquoi cette bibliothèque standard est si pauvre ou si mal foutue. Avec toute la hype autour de ce langage, c’est vraiment très étonnant.
Prenons le cas des expressions rationnelles, parce que la nullité de l’objet
Regexp
est navrante… et parce que c’est ce qui est le plus utile à Grammalecte :problème 1 : pas de lookbehind assertions
Les lookbehind assertions permettent de regarder ce qui précède un motif. OK, c’est pénible, mais on peut compenser avec quelques efforts.
problème 2 : les classes de métacaractères ne comprennent que l’ASCII.
Les classes de métacaractères comme
\w
et\b
, ne comprennent que l’ASCII.
Oui, l’ASCII ! Ce qui donne (vous pouvez essayer dans l’ardoise de Firefox) :/^\w+$/.test("étonnant") ==> false /\bvite\b/.test("évite") ==> true
Inutile de vous précipiter sur votre calendrier, nous sommes bien en 2017, et non en 1997. JavaScript est, paraît‐il, un langage moderne, mais seulement quand on n’y regarde pas de trop près.
Heureusement, il est facile de compenser l’absence d’un
\w
fonctionnel par[a-zA-Zà-öÀ-Ö0-9_ø-ÿØ-ßĀ-ʯ]
(du moins, ce sont les plages de caractères que j’ai retenues, on pourrait en ajouter bien d’autres). Ce qui rend les expressions rationnelles un peu plus piquantes à lire…Quant à
\b
, eh bien, on peut essayer de compenser avec des lookahead assertions et des lookbehind assertions. Seulement, voilà, ces dernières n’existent pas en JavaScript. Mais en magouillant, on peut simuler ça. Du moins dans presque tous les cas utiles. Tant pis pour les autres… on priera de ne pas tomber sur un caractère non ASCII.Problème 3 : pas de position des groupes capturés
Les groupes capturés n’indiquent pas leur position. Ça, c’était vraiment la mauvaise surprise. Avant de proposer la campagne de financement, j’avais vérifié ce que JavaScript pouvait faire avec les expressions rationnelles, mais je n’avais pas vu que ce point manquait à l’appel, tout simplement parce que je n’avais pas imaginé que JavaScript serait incapable de fournir cette indication.
De quoi s’agit‐il au juste ? C’est très simple. Quand vous écrivez une expression rationnelle avec des groupes de capture, comme
(\w+) (\w+) (\w+)
, Python vous renvoie les groupes capturés (ce qui est entre parenthèses) avec leur position dans le motif global. JavaScript ne renvoie que le contenu des groupes capturés, mais pas leur position. Débrouillez‐vous pour savoir où ça se trouve, et c’est bien plus épineux que vous pourriez le supposer, si, par exemple, vous capturez des mots comme « a », « le » ou « la », ou si vous capturez des groupes qui ne sont pas des mots entiers.Ce point seul m’a fait perdre beaucoup de temps, sans compter que ce fut un cauchemar à déboguer. J’ai même cru pendant quelques jours que tout le projet allait tomber à l’eau à cause de ça.
Car, à ce moment du développement, alors même que je bataillais pour rendre le moteur fonctionnel, j’ai pris conscience que l’exécution du code en JavaScript était environ douze fois plus lente qu’en Python, au point que lorsqu’on lançait la correction grammaticale, Firefox se figeait pendant de longues secondes… C’était évidemment inacceptable.
Il était donc hors de question de ralentir encore l’exécution du code en essayant de calculer la bonne position des erreurs dans les motifs détectés (pour rappel, il y a des milliers d’expressions rationnelles dans Grammalecte). Du coup, j’ai oublié cette idée et procédé autrement : la position des groupes capturés est signalée dans le fichier des règles de grammaire. Cela rend le processus d’écriture des règles un peu plus brouillon, mais c’est assez simple pour être acceptable. Et ça ne ralentit pas le moteur outre mesure.
Ensuite, pour éviter que Firefox ne se fige, le cœur du correcteur grammatical, c’est‐à‐dire la vérification du texte, s’exécute dans un processus séparé… Et, bonne surprise, il s’avère que dans ce processus — inexplicablement, sans rien changer au code — le correcteur fonctionne vingt fois plus rapidement que dans le processus principal de Firefox, même quand ce dernier ne fait rien du tout !…
Un écosystème incohérent
Selon les contextes et l’application, les choses fonctionnent différemment et ça donne la désagréable impression de bâtir sur du sable. On ne sait pas toujours bien ce qui préexiste aux scripts qu’on conçoit. Notamment, il n’y a toujours pas de moyen conventionnel simple pour importer un module (ES6 en parle, mais aucun navigateur n’a encore implémenté ça).
Parfois,
require
existe par défaut. On peut faire :const { Cu } = require("chrome"); const tabs = require("sdk/tabs");
Dans d’autres cas,
require
n’existe pas par défaut, donc :importScripts("resource://gre/modules/workers/require.js"); const gce = require("resource://grammalecte/fr/gc_engine.js");
Ou bien encore dans un autre contexte, il faut faire :
const Cu = Components.utils; const { require } = Cu.import("resource://gre/modules/commonjs/toolkit/require.js", {});
Parfois, on importe
Components.utils (Cu)
grâce àrequire
. Parfois, on importerequire
à partir deComponents.utils (Cu)
ou bien d’autre chose.
On peut aussi importer des modules via XUL ou le HTML, avec des espaces de noms partagés. Il y a aussi les déclarations de ressources dans un manifeste. Bref, tout ça est contre‐intuitif au possible.Cela dit, alors que j’écrivais ce texte, je découvre que
import
etexport
arrivent enfin dans les navigateurs ! On va peut‐être en finir avec tout ça bientôt.Mais, ça résoudra pas tout. Comme je l’ai dit, selon les applications et les contextes, certains objets ou fonctions existent ou n’existent pas. Dans Firefox, on peut appeler directement
XMLHttpRequest()
, mais pas dans Thunderbird. Pour ce dernier, il « suffit » donc de faire :let { Cc, Ci } = require("chrome"); let xRequest = Cc["@mozilla.org/xmlextras/xmlhttprequest;1"].createInstance(); xRequest.QueryInterface(Ci.nsIXMLHttpRequest);
Même pour faire un print, il n’y a pas de solution uniforme. Là encore, selon le contexte, il y a :
console.log()
,Service.console.logStringMessage()
oudump()
ou que sais‐je encore. Il y a des contextes où rien de tout ça ne fonctionne.Une dernière étrangeté : pour compenser la pauvreté des objets standard, j’ai ajouté des fonctions personnelles à
String
,Regexp
etMap
. Mais ce qui est curieux, c’est que dans Firefox, il faut que ces nouvelles fonctions soient déclarées dans le module où les objets sont instanciés… tandis que dans Thunderbird, il faut que ces nouvelles fonctions soient déclarées dans le module où ces fonctions sont utilisées. C’est pourtant le même moteur JavaScript.J’arrête ici de lister les incohérences, on n’en finirait pas.
Chaque problème n’est pas dramatique en soi, mais l’accumulation de ces contretemps finit par rendre la programmation en JavaScript vraiment casse‐pieds par moments.
Et, là, on ne parle que de Mozilla. C’est encore différent ailleurs, puisque l’implémentation des nouvelles fonctionnalités du langage n’avance pas au même rythme selon les moteurs.
En résumé, JavaScript, c’est le bordel et on se demande pourquoi c’est si incohérent. À mon avis, ce qui manque particulièrement à ce langage, c’est une implémentation standard avec un comportement logique et uniforme, des rapports d’erreurs plus clairs et une bibliothèque par défaut mieux faite et plus complète. On perd un temps considérable avec ces histoires.
Je ne voulais pas particulièrement écrire un long chapitre sur ce langage, mais ça fait déjà pas mal…
De Writer à Firefox (ou de la littérature au Web) : le choc culturel
L’un des points auxquels je n’avais pas beaucoup réfléchi et qui m’a le plus surpris, bien que j’avais conscience que les textes du Web n’égalaient pas en qualité et normativité ceux sur lesquels j’avais travaillé sur LibreOffice, c’est combien l’écrit sur le Web est chaotique et exubérant, et foisonne de néologismes, d’anglicismes, de noms propres (compagnies, marques, produits, people), de sigles, de codes divers, de vocabulaire technique, de smileys, d’erreurs de syntaxe ou de formatage, sans compter les habituelles erreurs typographiques, orthographiques et grammaticales… Si bien que même lorsque Grammalecte commençait à fonctionner comme il le devait sur Firefox, il m’est vite apparu que c’était difficilement utilisable en l’état, et qu’il fallait revoir son fonctionnement pour éviter trop de signalements intempestifs, pour éviter que tous les textes soient barbouillés de toutes les couleurs. Pourtant, je n’avais pas fait faire les premières armes du correcteur sur les logorrhées de Facebook, mais sur des textes d’acteurs « sérieux », comme les journaux et les blogs grand public ou plus confidentiels, mais a priori bien tenus. Quelle déconvenue !… Entre le charabia, les hashtags et autres bidules, le formatage indigent et la novlangue du Web, Grammalecte tirait tout le temps la gueule, et il a fallu revoir beaucoup de choses pour que le correcteur se comporte moins comme un casse‐pieds permanent. J’ai passé un temps considérable à cette adaptation culturelle. J’ai fait passer au correcteur des centaines de textes tirés de blogs et de journaux. J’ai corrigé des tas de faux positifs et j’ai ajouté des centaines de mots dans le dictionnaire. Et beaucoup d’entre vous trouvent sans doute le correcteur encore trop rigide. À vous de me le dire, j’ai eu très peu de retour sur ce point…
Quoi qu’il en soit, pour s’acclimater à Internet, il a fallu assouplir grandement la politique d’intégration des néologismes, des anglicismes, des marques, améliorer l’analyseur lexical pour ignorer des tas de trucs. Par exemple, si l’on peut se passer du verbe « tweeter » quand on ne s’occupe que de LibreOffice, sur le Web, non, ce ne peut être compris des utilisateurs. Trop fréquent. Idem pour pas mal de marques et d’autres néologismes très courants.
Cela dit, je suis toujours réticent à ajouter trop de nouveautés et de bizarreries, les noms de produits sont toujours interdits (tant pis pour les Freebox, les iBidule, et autres gadgets dans l’air du temps…), et je me suis arrêté au moment où j’ai estimé que j’avais suffisamment assoupli les choses… Faites‐moi part de votre avis, en bien ou en mal. Il reste sans doute encore des rugosités à polir.
Lexique du correcteur
La graphie d’un mot français ne permet pas de déterminer sa nature. Un mot finissant par « -ent » peut être un nom, un adjectif, un adverbe ou la forme conjuguée d’un verbe. C’est pourquoi un correcteur grammatical ne peut souvent pas grand‐chose sans un lexique étiqueté référençant tous les mots d’une langue. Cet étiquetage, c’est la base de la connaissance du correcteur.
Ce lexique est généré à partir du dictionnaire orthographique pour Hunspell.
Quelques données sur le dictionnaire :
- plus de 82 300 entrées (+ 5 300 depuis le précédent journal) ;
- toutes les entrées sont grammaticalement étiquetées ;
- environ 20 % d’entre elles sont sémantiquement étiquetées (médecine, informatique, botanique, etc.), mais cet étiquetage ne sert pas encore.
Améliorer la base lexicale et son étiquetage, c’est l’une des tâches les plus importantes de la conception d’un correcteur grammatical. Tout le travail sur le dictionnaire se fait sur Dicollecte, où sont collectées les propositions des utilisateurs.
C’est toujours perfectible
Beaucoup de choses ont été faites, parfois plus que ce qui était demandé, parfois le strict minimum. Évidemment, beaucoup de choses sont encore améliorables, c’est le propre des projets informatiques. Un correcteur grammatical, ce n’est jamais fini.
Si j’ai oublié de mentionner quelque chose d’important, n’hésitez pas à m’en faire part.
Malheureusement pour certains, je n’ai pas réécrit le correcteur en OCaml, Haskell, Lisp, Cobol… [insérez ici votre langage à la mode favori]. Firefox et Thunderbird s’obstinent à ne comprendre que le JavaScript, LibreOffice le Python, le Basic et le Java. C’est barbare ou vintage si on est indulgent, mais c’est ainsi. :-)
Pour l’instant, attendu que Mozilla n’a toujours pas implémenté l’interface de programmation qui permettra de souligner les erreurs directement dans les zones de texte, la correction se fait dans un panneau annexe. Mais, dès que cette interface sera disponible, c’est bien sûr ainsi que les corrections se feront. Au cas où ceci intéresserait quelqu’un parmi vous, sachez qu’il existe une prime pour la réalisation de cette tâche sur Bountysource.
Il existe également une prime pour apporter la colorisation des erreurs dans LibreOffice. Idéalement, j’aimerais qu’on passe des vaguelettes bleues à peine visibles à des traits pleins, épais et colorés. Par exemple :
L’un des problèmes qui m’ennuie assez en ce moment, c’est que la validation des extensions proposées sur le site de Mozilla est devenue vraiment longue depuis le début de l’année. Les contrôleurs sont probablement submergés de nouvelles extensions à cause du passage obligatoire à WebExtension. Du coup, la version 0.5.16 n’est pas encore validée. La version 0.5.17 n’a pas encore été proposée, attendu que toute nouvelle version nous ramène en fin de liste d’attente.
L’avenir
Améliorer la correction grammaticale
Après le passage délicat que constituait la désimbrication de Grammalecte de LibreOffice, je vais dorénavant me concentrer sur l’amélioration du correcteur lui‐même. Avec toutes les nouvelles fonctionnalités apportées dernièrement, il est possible de faire bien mieux que ce qu’on a maintenant.
Pour l’instant, le désambiguïsateur, quoique déjà fort utile, est particulièrement sous‐utilisé, pas parce qu’il est difficile d’emploi, mais parce que cette affaire est vraiment plus délicate que je ne l’avais supposé de prime abord, et aussi parce que le processeur de texte fait en vérité déjà beaucoup de travail sur ce point (cf. le journal précédent)… Encore une fois, le diable est dans les détails, les détails, les détails…
En revanche, il m’apparaît de plus en plus évident qu’il serait utile d’adjoindre au désambiguïsateur un système d’annotation du texte, parce que tout ne dépend pas de la désambiguïsation grammaticale, et qu’il est souvent appréciable de connaître le contexte.Le fait que les règles puissent lancer plusieurs actions va permettre de faire des examens plus complets sur des détails pour l’instant ignorés, notamment sur le contrôle des locutions adverbiales ou les syntagmes nominaux les plus fréquents. Rien de difficile à première vue. Juste un travail de tâcheron qui demande du temps.
L’autre point central à mettre en œuvre, c’est la fusion et le réajustement des règles existantes. Le fait que les règles peuvent dorénavant appliquer autant d’actions que voulu change grandement la donne. Par exemple, je vous avais expliqué dans le précédent journal que la vérification des verbes se faisait après avoir vérifié tout le reste. À présent, même s’il est encore utile de fonctionner ainsi dans bon nombre de cas, il serait appréciable de fusionner certaines de ces vérifications avec le désambiguïsateur qui, lui, est surtout utilisé dans les premières phases de traitement.
Ce travail de fusion et de réajustement des règles ne présente pas de difficultés particulières, c’est surtout une question de stratégie globale qui ne nécessite cependant qu’un travail minutieux et attentif, plutôt ennuyeux et probablement un peu répétitif. Une fois de plus, avec plusieurs centaines de règles concernées, ça ne peut pas se faire en un tour de main.Autre objectif : bétonner les tests, bétonner les tests, bétonner les tests. Parce que c’est possible et que c’est indispensable pour éviter les bogues inattendus que la correction grammaticale peut susciter. Mais il faudra aussi consolider radicalement les tests par l’ajout systématique des erreurs les plus fréquentes.
Améliorer les suggestions… Un casse‐tête qui s’est beaucoup amélioré ces derniers temps, mais il faudrait quand même réussir à filtrer les absurdités que le correcteur sort parfois. Son défaut est d’être un peu trop ingénieux par moments… mais bon, ça peut faire rire. :-)
Parmi les suggestions, il y a particulièrement les suggestions orthographiques. Pour le moment, dans Firefox et Thunderbird, Grammalecte utilise Hunspell pour avoir des suggestions orthographiques, même s’il n’a plus besoin de lui pour savoir si un mot est présent dans le dictionnaire et récupérer les données grammaticales. Il serait utile d’adjoindre un module de suggestion orthographique en parcourant le graphe de mots à la recherche de possibles mots correspondant suffisamment à la graphie inconnue. Un domaine de recherche à part entière. À mon avis, il serait utile d’implémenter une suggestion basée sur des substitutions phonétiques.
Plus loin, plus fort ?
Ce n’est qu’une idée, pour l’instant mal formée et un peu extravagante, mais je réfléchis à la possibilité de bâtir un graphe de la grammaire française comme il a été possible de bâtir un graphe de l’ensemble des mots du français. La différence, c’est que la totalité des mots français recensés peuvent s’écrire selon un graphe acyclique, avec un début et une fin connus, tandis que si on schématise la grammaire française les boucles et les récurrences sont possibles, les embranchements innombrables, les fantaisies ne sont pas rares, la longueur de la chaîne de tokens est théoriquement sans limite… Et on ne parle là que de phrases faites avec une grammaire correcte. Comment gérer les erreurs rencontrées ? Faut‐il les intégrer dans ce même graphe en créant des branches d’erreur ?
C’est une pensée embryonnaire qui n’aboutira peut‐être à rien d’utile, mais si l’on trouve un moyen de bâtir ce graphe, il devrait être possible de gérer des cas très complexes. Ça nous permettrait de sortir du schéma [motif potentiel d’erreur → condition d’erreur → suggestions → message d’erreur] qu’on peut heureusement combiner avec diverses magouilles plus ou moins subtiles élaborées avec le processeur de texte et le désambiguïsateur.Ce qui est sûr, c’est que le tokeniseur va prendre une place une place plus importante dans la nouvelle stratégie pour gérer la complexité.
Créer une extension pour Chrome
Pas grand‐chose de spécial à dire sur ce sujet. Il est à espérer que produire l’extension pour Chrome prenne un temps raisonnablement court, attendu que Mozilla a essayé de faire en sorte que la nouvelle API soit proche de celle de Chrome. Mais dans l’univers de JavaScript, y a‐t‐il quelque chose de stable et bien pensé ? Ce serait une bonne surprise. J’ironise et je médis, mais c’est un peu mérité, n’est‐ce pas ?
Quoi qu’il en soit, même si ça se fait plus rapidement qu’attendu – il n’est pas interdit de rêver –, le temps prévu à cette tâche sera utilisé pour renforcer le correcteur, ce ne sera donc pas perdu. En plus, moins je fais de JavaScript, plus je suis heureux… C’est donc avec bonheur que je me livrerai à une tâche plus essentielle que deviner ce que peut vouloir me dire le débogueur de Chrome.Outils annexes
L’amélioration du lexicographe (qui donne des informations sur les mots) et l’assistant lexical (permettant l’ajout simplifié de mots au lexique) ont pour but de revisiter la manière d’améliorer la base lexicale, dont Dicollecte, le site Web existant pour cette tâche, commence à se faire vieux. J’espère inciter les utilisateurs à participer à la conception de la base en rendant l’interface plus simple et plus séduisante, et surtout directement accessible dans son logiciel. Ça a l’air insignifiant, mais c’est une question essentielle.
Le détecteur de répétitions est proposé parce que c’est un outil qui intéresse potentiellement beaucoup les écrivains soucieux de varier leur vocabulaire.
Le mot de la fin
Bon sang ! Difficile de rendre une campagne de financement attrayante quand on parle de grammaire. Au final, on veut juste de petits liserés sous les mots erronés et un menu contextuel qui explique pourquoi c’est faux et qui suggère quelque chose de crédible. Rien de palpitant à la réflexion. On peut espérer susciter l’intérêt des technophiles en parlant de l’arrière‐cuisine et du système de tuyauterie, mais j’avais déjà presque tout dit la première fois, je ne peux que rendre compte de ce qui a été fait et amélioré.
Si la première campagne vous a satisfait, si vous jugez que la correction grammaticale est trop importante pour être négligée et qu’il faut en finir avec la maltraitance de la langue française, si vous voulez peser sur les priorités du correcteur grammatical ou ajouter des mots spécifiques ordinairement interdits dans le dictionnaire, je vous invite à consulter la page de financement participatif sur Ulule.
-
Itop... l'ITSM opensource
(Journaux LinuxFR)
Cher Nal
C'est la première fois que je t'écris. Je ne suis qu'un humble lecteur. Quelques relectures orthographiques par ci par là… Mais aujourd'hui, j'ai pris mon courage à deux mains sur le clavier.
Je veux te parler d'un logiciel que j'ai testé il y a quelques temps : iTop.Késako? un ITSM Opensource,soutenu par une entreprise iséroise (cocorico). L'interface est simple et épurée
Il permet :
- La gestion des changements
- La gestion des incidents
- La gestion des demandes utilisateurs
- La gestion des services
La CMDB est simple et dynamique. De beaux tableaux de bords pour nos dirigeants, une base de connaissance pour nous techniciens…. Connecteurs pour Nagios, Cacti… etc
Énumérer la liste des fonctionnalités est fastidieuse, mais le logiciel répond à tout ce qu'on trouve sur le marché (en beaucoup plus cher)Bref, tout ce qu'on a besoin dans un logiciel dit ITSM avec en cadeau, la licence AGPL (v3).
J'ai lu qu'on ne parlait pas assez technique : C'est du LAMP …. what else?
Voila, Nal, je laisse quelques liens pour les plus interessés. A bientôt peut être.
Liens
1. Site Communautaire
2. Démo en ligne
3. Une nimage pour la route -
Interopérabilité dans les astroports
(Journaux LinuxFR)
Ces dernières semaines c'était plutôt calme, on a fêté un anniversaire à la starfleet academy et les Romuliens montraient plutôt des signes de bonne volonté.
Cette semaine la polémique a enflé. Les Romuliens sont soupçonnés de fausser la libre concurrence sur la consigne de bagages galactiques.
C'est vendredi et les Romuliens contre attaquent.
"C'était pas volontaire, on a pas fait exprès, d'ailleurs … oh une licorne rose qui passe …"Ca va encore être le bazar dans les astroports cette année …
-
Galère lors de l'achat d'un livre numérique
(Journaux LinuxFR)
Les murs de mon appartement étant déjà couverts de livres j'ai fini par me tourner (dans quelques cas) vers les fichiers numériques au lieu de continuer à acheter des livres papier.
Malheureusement cet achat n'est pas toujours simple et rapide quand on est un utilisateur qui refuse les DRM et qui utilise Linux. En voici un exemple concret.
Il y a quelques jours je vois que la traduction française du roman "Artemis" d'Andy Weir est disponible à la vente.
C'est un bon candidat pour un achat au format numérique puisque l'écart entre le prix de la version numérique (12,99 €) est assez conséquent par rapport à celui de la version papier (21,5 €). Ce n'est hélas pas le cas de tous les livres !Je pars donc en chasse pour trouver un site le proposant à la vente dans une version Epub sans DRM. Évidemment impensable de l'acheter sur Amazon qui ne propose que des fichiers au format propriétaire pour ses liseuses Kindle. Pourquoi pas la FNAC ? Tout semble OK, le site indique bien que le Epub ne comporte pas de DRM. Allez hop je l'achète.
Bon y'a un souci.
Mail 1 :
Bonjour,
Je viens de commander un livre numérique sur le site de la fnac et je n'arrive pas à télécharger le fichier ePub correspondant.
Il s'agit de la commande : xxxxxxxxxxx
J'utilise un ordinateur sous Linux donc je n'ai pas de liseuse kobo ou de produit Adobe. Je veux juste le fichier Epub de base.
J'ai bien pris soin de m'assurer, avant d'acheter, que ce livre numérique était vendu sans DRM donc ça devrait être compatible avec mon ordinateur…mais encore faut-il arriver à le télécharger !Sur mon compte "Mes Ebooks" je vois bien le bouton bleu intitulé "Télécharger avec ADE" (voir copie d'écran) mais cela me conduit sur une page indiquant "Object moved to Here". Quand je clique sur "Here" rien ne se passe. Je n'ai donc toujours pas mon fichier epub.
Merci par avance pour votre aide
Cordialement
Réponse SAV 1 :
Monsieur,
Dans le cas où il ne vous serait pas possible d’accéder au lien de téléchargement depuis notre site, je vous invite à télécharger votre livre depuis le site de notre partenaire Kobo.
Remarques : Adobe Digital Editions (ou Sony Reader pour les liseuses Sony) doit être préalablement installé et associé avec un id adobe.
Nous vous prions de nous excuser pour la gêne occasionnée.
A bientôt sur www.fnac.com
Cordialement,
xxxxx
Assistance TechniqueMail 2 :
Bonjour,
Comme je l'ai indiqué dans ma demande initiale, mon ordinateur fonctionne avec Linux.
Je ne peux donc pas installer "Adobe Digital Editions".Je veux juste le fichier Epub du livre que j'ai acheté.
Il était bien marqué sur le site que ce fichier Epub était sans DRM donc il doit pouvoir être lu par tous les logiciels compatibles Epub (y compris avec Linux).Merci d'avance
Cordialement
Réponse SAV 2 :
Monsieur,
Il n'existe actuellement pas de version des logiciels Kobo Desktop et Adobe Digital Editions compatibles avec les distributions Linux.
Je vous propose d'utiliser un émulateur intégrant Adobe Digital Editions tel que "Wine" pour lire vos livres numériques.
Notez que Linux n'est pas un système d'exploitation supporté par l'assistance technique de la Fnac, nous ne pourrons donc assurer aucun support pour la solution proposée ci-dessus.
A bientôt sur www.fnac.com
Cordialement,
xxxxx
Assistance TechniqueMail 3 :
Bonjour,
Je ne comprends pas pourquoi vous continuez à me recommander d'utiliser Adobe Digital Editions.
J'ai payé pour avoir un fichier Epub sans DRM lisible partout et je veux un fichier Epub sans DRM lisible partout.S'il vous est impossible de m'envoyer le produit que j'ai acheté sur votre site, je demande tout simplement à être remboursé.
Cordialement
Réponse SAV 3 :
Monsieur,
La plupart des livres numériques (eBooks) proposés au téléchargement sur Fnac.com sont protégés par DRM. Cette protection est demandée par les éditeurs pour autoriser la distribution.
Comme indiqué dans l'article 7 des conditions générales de téléchargement livre numérique, les achats de contenus numériques sont fermes et définitifs.
Ils ne pourront donc donner lieu à échange, remboursement ou à l’exercice d’un droit de rétractation.Je suis navré, nous ne pouvons répondre favorablement à votre demande d'annulation de commande.
A bientôt sur www.fnac.com
Cordialement,
xxxxx
Assistance TechniqueMail 4 :
Bonjour,
Vous m'indiquez que la plupart des livres numériques vendus par la FNAC sont protégés par DRM.
Quel est le rapport ? Comme je l'ai indiqué PLUSIEURS fois dans mes communications précédentes, j'ai acheté ce livre numérique JUSTEMENT parce que celui-ci était sans DRM.
C'est ce qui est explicitement annoncé sur le site de la FNAC (voir la copie d'écran ci-jointe).Quand à l'article 7 de vos conditions, il évoque explicitement la "fourniture de contenu numérique" et justement rien ne m'a été fourni !
J'ai payé 12,99 euros pour un fichier numérique et je n'ai rien pu télécharger parce que le lien de téléchargement ne fonctionne pas.Alors soit vous me fournissez le fichier Epub sans DRM tel qu'il est décrit sur votre site, soit vous me remboursez.
Merci d'avance.
Réponse SAV 4 :
Monsieur,
Je vous confirme que votre eBook ne contient pas de DRM, cependant, comme indiqué dans notre échange du xxxxx, il n'existe actuellement pas de version des logiciels Kobo Desktop et Adobe Digital Editions (logiciel géré par notre assistance technique) compatibles avec les distributions Linux.
Je vous propose d'utiliser un émulateur intégrant Adobe Digital Edition tel que "Wine" pour lire vos livres numériques (ou le logiciel que vous souhaitez à partir de votre distribution de Linux).
Notez que Linux n'est pas un système d'exploitation supporté par l'assistance technique de la Fnac, nous ne pourrons donc assurer aucun support pour la solution proposée ci-dessus.
Concernant votre demande de mise à disposition, votre eBook est bien disponible au téléchargement à partir du site de notre partenaire Kobo.
Pour le télécharger :
Rendez-vous sur le site www.kobo.fr
Cliquez en haut à droite sur "Se connecter"
Cliquez sur « Vous ne voyez pas vos options de connexions habituelles ? » puis choisir « Mon compte Fnac »
Saisissez l'adresse mail et le mot de passe de votre compte Fnac.com
Cliquez sur "Mon compte" puis sur "Mes Livres"
Cliquez sur les trois points en face ou sous le livre souhaité
Cliquez sur "Télécharger" puis sur "Télécharger le fichier" et ouvrez-le avec Adobe Digital Edition
La lecture du livre peut commencer.A bientôt sur www.fnac.com
Cordialement,
xxxxx
Assistance TechniqueAh cette fois une information importante est apparue dans ce mail de la FNAC ! Le gars continue à déblatérer au sujet de Wine et que le fichier est téléchargeable sur le site du partenaire Kobo MAIS il ne parle plus de l'obligation d'installer Adobe Digital Editions et de l'associer avec un identifiant Adobe.
Et effectivement quand je vais sur le site Kobo (avec mon login/password du compte FNAC) je parviens finalement à télécharger le fameux fichier Epub.
Victoire !Allez on va remercier.
Mail 5 :
Bonjour,
Dans un de vos précédents mails vous indiquiez que pour effectuer le téléchargement sur le site Kobo il fallait que : "Adobe Digital Editions (ou Sony Reader pour les liseuses Sony) doit être préalablement installé et associé avec un id adobe".
Dans votre dernier mail vous n'évoquez plus cette obligation. Je suis donc allé sur le site Kobo et j'ai pu télécharger le fichier Epub en suivant vos instructions. Je vous remercie pour votre aide.
Pour information je ne suis nullement obligé d'ouvrir et de lire ce fichier avec Adobe Digital Editions et Wine.
Il existe sous Linux de nombreux lecteurs de fichier Epub tournant nativement (Calibre, Okular, Lucidor, Bookworm, etc).Cordialement
Donc si on fait un résumé de mon expérience d'achat de livre numérique :
- Le lien de téléchargement FNAC n'a pas fonctionné (Chrome, Firefox, désactivation de uBlock Origin, rien n'y fait).
- Il a donc fallu contacter le SAV et envoyer de multiples mails.
- Le support technique m'a donné des informations fausses, incomplètes ou n'ayant rien à voir avec le sujet.
- Le tout à pris 4 jours.
- Mais à la fin j'ai pu récupérer mon fichier. C'est bon à savoir pour ceux qui connaissent le même problème que moi : en dépit de ce que peut dire le SAV, il est possible de télécharger le Epub sans devoir installer le bidule Adobe.
J'ai quand même voulu comparer avec le téléchargement de ce livre numérique via un torrent sur un site bien connu :
- 17 secondes après avoir cliqué sur le lien torrent j'avais mon fichier Epub.
Alors je ne généralise pas, peut-être que cette mauvaise expérience est spécifique à ce vendeur ou bien peut-être que je n'ai pas eu de chance avec un fichier particulier.
Mais bon ça n'incite pas trop à renouveler. -
Agenda du Libre pour la semaine 26 de l'année 2018
(Dépêches LinuxFR)
Calendrier web, regroupant des événements liés au Libre (logiciel, salon, atelier, install party, conférence), annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 30 événements (1 en Belgique, 29 en France, 0 au Luxembourg, 0 au Québec 0 en Suisse et 0 en Tunisie) est en seconde partie de dépêche.
- lien n°1 : April
- lien n°2 : Agenda du Libre (Belgique, France, Luxembourg, Suisse et Tunisie)
- lien n°3 : Carte des événements
- lien n°4 : Proposer un événement
- lien n°5 : Annuaire des organisations
- lien n°6 : Agenda de la semaine précédente
- lien n°7 : Agenda du Libre du Québec
Sommaire
- [FR Nantes] Cycle café vie privée Protection de son trafic sur Internet (VPN) - Le lundi 25 juin 2018 de 18h00 à 21h00.
- [FR Grenoble] Contribuer à BANO, la base d’adresse nationale d’OSM - Le lundi 25 juin 2018 de 18h30 à 20h30.
- [FR Gaillac] Atelier informatique libre - Le lundi 25 juin 2018 de 19h30 à 23h00.
- [FR Marseille] PGDay France - Le mardi 26 juin 2018 de 08h30 à 17h30.
- [FR Aiglun] Après-midi « Open data » et « Cartopartie » - Fête de l'été - Le mardi 26 juin 2018 de 15h00 à 19h00.
- [FR Quetigny] Découvrir, tester, installer Linux et d’autres logiciels libres - Le mardi 26 juin 2018 de 20h30 à 23h30.
- [FR Le Mans] Permanence du mercredi après-midi - Le mercredi 27 juin 2018 de 12h00 à 17h00.
- [FR Rennes] Sécuriser son infrastructure - Le mercredi 27 juin 2018 de 18h30 à 21h00.
- [FR Montpellier] Rencontres des Groupes OpenStreetMap OSM - Le mercredi 27 juin 2018 de 19h00 à 22h00.
- [FR Toulouse] Rencontres Tetalab - Le mercredi 27 juin 2018 de 20h30 à 23h30.
- [FR Choisy-le-Roi] Pas Sage en Seine - Du jeudi 28 juin 2018 à 10h00 au dimanche 1 juillet 2018 à 20h00.
- [FR Rennes] Conseil d’administration de Gulliver - Le jeudi 28 juin 2018 de 12h00 à 14h00.
- [FR Martigues] Permanence du jeudi de l'ULLM - Le jeudi 28 juin 2018 de 16h30 à 18h30.
- [FR Challans] Permanence Linux - Le jeudi 28 juin 2018 de 18h00 à 20h00.
- [FR Bordeaux] Jeudi Giroll - Le jeudi 28 juin 2018 de 18h30 à 20h30.
- [FR Peymeinade] Install-Party GNU/Linux - Le jeudi 28 juin 2018 de 19h00 à 21h00.
- [FR Vesseaux] Projection-débat du film « Nothing to hide » - Le jeudi 28 juin 2018 de 19h00 à 22h00.
- [FR Paris] Soirée de Contribution au Libre - Le jeudi 28 juin 2018 de 19h30 à 22h30.
- [FR Montpellier] Atelier du Libre Ubuntu et Logiciels Libres - Le vendredi 29 juin 2018 de 18h00 à 23h00.
- [FR Paris] Apéro April - Le vendredi 29 juin 2018 de 19h00 à 22h00.
- [FR Dijon] Atelier de création numérique et électronique - Le vendredi 29 juin 2018 de 20h30 à 23h59.
- [FR Saint-Jean-de-Védas] Repair Café - Le samedi 30 juin 2018 de 09h00 à 13h00.
- [FR Casseneuil] Install Partie GNU/Linux - Le samedi 30 juin 2018 de 10h00 à 17h00.
- [FR Wintzenheim] Réunion du Club Linux - Le samedi 30 juin 2018 de 13h00 à 19h00.
- [FR Villefranche-sur-Saône] Repaircafé - Le samedi 30 juin 2018 de 13h30 à 17h30.
- [FR Marseille] Install Party GNU/Linux - Le samedi 30 juin 2018 de 14h00 à 19h00.
- [BE Liège] Linux Install Party - Le samedi 30 juin 2018 de 14h00 à 18h00.
- [FR Ivry sur Seine] Cours de l’Ecole du Logiciel Libre - Le samedi 30 juin 2018 de 14h30 à 18h30.
- [FR Courbevoie] Assemblée Générale annuelle de l'association StarinuX - Le samedi 30 juin 2018 de 14h30 à 17h00.
- [FR Poucharramet] Festival AgitaTerre - Le dimanche 1 juillet 2018 de 09h30 à 23h00.
[FR Nantes] Cycle café vie privée Protection de son trafic sur Internet (VPN) - Le lundi 25 juin 2018 de 18h00 à 21h00.
Protection de son trafic sur Internet
Pourquoi et comment chiffrer son trafic sur Internet avec un VPN (réseau privé virtuel) ?
Présentation du fonctionnement d’un VPN, de son intérêt et de sa mise en place.Au bar associatif La Dérive https://lajavadesbonsenfantsblog.wordpress.com/
- La Dérive, 1 rue du Gué Robert, Nantes, Pays de la Loire, France
- Adresse web https://cafevieprivee-nantes.fr/category/actualites
- Tags café-vie-privée, anonymat, vpn, tunnel
[FR Grenoble] Contribuer à BANO, la base d’adresse nationale d’OSM - Le lundi 25 juin 2018 de 18h30 à 20h30.
Le collectif OpenStreetMap Grenoble vous invite à son prochain atelier OSM, La Base Adresses Nationale Ouverte (BANO) est une initiative d’OpenStreetMap France.
Elle a pour objet la constitution d’une base la plus complète possible de points d’adresse à l’échelle de la France.
L’objectif est de proposer une couverture d’adresses la plus étendue possible et la plus homogène possible.
Cela doit permettre de réaliser sur le plus largement possible des opérations de géocodage (Quelle position correspond à cette adresse) et de géocodage inversé (Quelle adresse correspond à cette position).
Lors de ce mapathon, le collectif OpenStreetMap Grenoble vous propose d’apprendre à contribuer à la BANO.
À partir de 18h30 à La Coop-Infolab. 31 rue Gustave Eiffel – 38 000 Grenoble
BANO ou BAN
La BAN (Base Adresse Nationale) est la base de référence nationale issue d’une convention signée entre l’IGN, le Groupe La Poste, l’État et OpenStreetMap France.
BANO est un projet initié par OpenStreetMap France début 2014 et n’a pas encore intégré de données issues de la BAN (chantier en cours). Le contenu de la BAN est plus complet (plus de 20 millions d’adresses) que BANO (15. 5M d’adresses), mais n’intègre(ra) pas de contributions faites sur OpenStreetMap et encore très peu de données opendata diffusées par certaines collectivités.
C’est quoi OSM
OpenStreetMap (OSM) est un projet international fondé en 2004 dans le but de créer une carte libre du monde.
Nous collectons des données dans le monde entier sur les routes, voies ferrées, les rivières, les forêts, les bâtiments et bien plus encore
Les données cartographiques collectées sont ré-utilisables sous licence libre ODbL (depuis le 12 septembre 2012). Pour plus d’information inscrivez-vous à la liste locale OSM de Grenoble
- La Coop Infolab, 31 rue Gustave Eiffel, Grenoble, Auvergne-Rhône-Alpes, France
- Adresse web https://www.la-coop.net/evenement/atelier-osm-juin18
- Tags osm, openstreetmap, cartographie, atelier
[FR Gaillac] Atelier informatique libre - Le lundi 25 juin 2018 de 19h30 à 23h00.
Un atelier d’informatique libre voit le jour au sein du chinabulle, pour créer un espace temps d’échange autour des solutions informatiques libres.
- Au comptoir du Chinabulle, 47 rue du Chateau du Roi, Gaillac, Occitanie, France
- Adresse web https://www.chinabulle.org
- Tags échange, transmission, logiciels-libres, découverte, chinabulle, atelier
[FR Marseille] PGDay France - Le mardi 26 juin 2018 de 08h30 à 17h30.
Le PGDay France est un moment de rencontres et de conférences pour la communauté francophone de PostgreSQL.
Les conférences s’adressent à tous les utilisateurs du logiciel étudiants, administrateurs systèmes, DBA, développeurs, chefs de Projets, décideurs.
- Théâtre Joliette, 2 place Henri Verneuil, Marseille, Provence-Alpes-Côte d’Azur, France
- Adresse web http://pgday.fr
- Tags postgresqlfr, conference, pgday
[FR Aiglun] Après-midi « Open data » et « Cartopartie » - Fête de l'été - Le mardi 26 juin 2018 de 15h00 à 19h00.
Démarche participative et collaborative, il s’agit notamment de permettre aux associations, producteurs locaux, habitants et usagers de cartographier les services / activités qui constituent la richesse de notre territoire sur un outil libre (Openstreetmap).
Les données publiques communales mises en ligne et la création d’un agenda partagé (à destination des associations) seront également valorisées.
Les organisateurs du marché d’Aiglun proposeront de nombreuses animations à travers la fête l’été. Venez nombreux
Tout l’après-midi marché bio et des producteurs locaux, animation musicale, balades avec les ânes, jeux, atelier de cartographie libre
À 15 h, 16 h et 17 h visite du champ de lavande rendez-vous sur la place du marché
À partir de 17 h dégustations des produits du marché préparés par le restaurant Le Pressoir Gourmand et grillades d’agneau
À 18 h apéritif local offert par la mairie d’Aiglun, débat sur la cartographie et les données ouvertes
- Marché bio et des producteurs locaux d'Aiglun, place Edmond Jugy, Aiglun, Provence-Alpes-Côte d'Azur, France
- Adresse web https://wiki.openstreetmap.org/wiki/Cartopartie_et_opendata_-_aiglun
- Tags openstreetmap, osm, open-data, carto-partie
[FR Quetigny] Découvrir, tester, installer Linux et d’autres logiciels libres - Le mardi 26 juin 2018 de 20h30 à 23h30.
COAGUL est une association d’utilisateurs de logiciels libres et de GNU Linux en particulier.
Nous utilisons toutes sortes de distributions GNU / Linux (Ubuntu, CentOs, Fedora, Debian, Arch…) et toutes sortes de logiciels pourvu qu’ils soient libres (VLC, LibreOffice, Firefox, Thunderbird, GPG, Tor, OpenNebula, LXC, Apache…).
Nous partageons volontiers nos connaissances des logiciels libres et l’entraide est de mise dans nos réunions.
Les permanences servent à se rencontrer et à partager nos expériences et notre savoir sur le logiciel libre.
Vous souhaitez nous rencontrer nous vous accueillerons à notre permanence.
On adore les gâteaux et les chocolats, vous pouvez donc en apporter-)
- Centre Social et Culturel Léo Lagrange, 3 rue des Prairies, Quetigny, Bourgogne-Franche-Comté, France
- Adresse web https://www.coagul.org
- Tags permanence, coagul, logiciels-libres, linux
[FR Le Mans] Permanence du mercredi après-midi - Le mercredi 27 juin 2018 de 12h00 à 17h00.
Assistance technique et démonstration concernant les logiciels libres.
- Centre social, salle 220, 2ᵉ étage, Pôle associatif Coluche, 31 allée Claude Debussy, Le Mans, Pays de la Loire, France
- Adresse web https://linuxmaine.org
- Tags linuxmaine, permanence, assistance
[FR Rennes] Sécuriser son infrastructure - Le mercredi 27 juin 2018 de 18h30 à 21h00.
La sécurité informatique ne repose pas que sur la qualité du code et le chiffrement (même s’ils sont essentiels), c’est aussi une question d’architecture.
Vous (re)découvrirez quelques principes de sécurisation des infrastructures informatiques tels que la séparation des flux, la redondance et d’autres éléments pouvant améliorer la protection et la disponibilité des services.
La conférence sera présentée par
Thomas MICHEL
Esprit Libre
esprit-libre-conseil.com (link is external)mercredi 27 juin - 18h30
FrenchTech Rennes - Saint-Malo
2 rue de la Mabilais
Rennes- FrenchTech Rennes - Saint-Malo, 2 rue de la Mabilais, Rennes, Bretagne, France
- Adresse web https://caplibre.fr/actualites/securiser-son-infrastructure
- Tags caplibre, conférence, sécurité
[FR Montpellier] Rencontres des Groupes OpenStreetMap OSM - Le mercredi 27 juin 2018 de 19h00 à 22h00.
Ces rencontres mensuelles se veulent être des instants conviviaux pour faire un compte-rendu des activités du mois précédent, mais aussi pour présenter les opérations et rendez-vous à venir que proposent les groupes HérOSM et le Collectif des Garrigues. Naturellement, elles sont également ouvertes à tout public.
Si vous avez des propositions n’hésitez pas à compléter la page dédiée.
- En première partie de soirée, une initiation pour les débutants est prévue
- Possibilité d’initiation à la contribution pour les débutants qui le désire
- Préparation du dossier pour le budget de l’Opération Libre
- Préparation de l’Opération Libre à Jacou
- Travail sur les voies manquantes sur (enjeu évident de géocodage d’adresses, comme celles fournies par SIRENE ou FANTOIR par exemple
- Petit topo sur la saisie des noms de rues à partir des données cadastre/fantoir par département
-
Propositions au sujet du calcul d’itinéraire multimodal (auto, vélo, piéton) dans les futures discussions
- La pratique des cartoparties
- Faut-il prioriser la cartographie de certains endroits (gares et arrêts de tram, par exemple) ?
Contributions libres
Nous vous présenterons les projets en cours, nous vous vous proposerons de contribuer, faire de la production de données, puis nous passerons à un instant convivial sur la terrasse.
Comme d’habitude, chacun amène ce qu’il veut à manger et à boire pour un repas partagé.
N’oubliez pas vos ordinateurs portables pour la séance de saisieLe dernier mercredi de chaque mois
Mercredi 27 septembre 2017 de 19h00 à 22h00
Mercredi 25 octobre 2017 de 19h00 à 22h00
Mercredi 29 novembre 2017 de 19h00 à 22h00
Mercredi 20 décembre 2017 de 19h00 à 22h00
Mercredi 24 janvier 2018 de 19h00 à 22h00
Mercredi 28 février 2018 de 19h00 à 22h00
Mercredi 28 mars 2018 de 19h00 à 22h00
Mercredi 25 avril 2018 de 19h00 à 22h00
Mercredi 30 mai 2018 de 19h00 à 22h00
Mercredi 27 juin 2018 de 19h00 à 22h00Mercredi 27 septembre 2017 de 19h00 à 22h00
Le Faubourg - 15, rue du Faubourg de Nîmes, 34 000 MontpellierTramway lignes 1, 2 et 4 arrêt Corum
GPS Latitude 43.614186 | Longitude 3.881404
Carte OpenStreetMapLe dernier mercredi de chaque mois.
- Le Faubourg, 15 rue du Faubourg de Nîmes, Montpellier, Occitanie, France
- Adresse web http://montpel-libre.fr
- Tags osm, openstreetmap, cartographie, donnee, saisie, cartopartie, participative, rencontre, logiciels-libres, montpel-libre
[FR Toulouse] Rencontres Tetalab - Le mercredi 27 juin 2018 de 20h30 à 23h30.
Rencontre hebdomadaire des hackers et artistes libristes Toulousains.
Ouvert au public tous les mercredi soir.
Venez nombreux.
- Mix'Art Myrys, 12 rue Ferdinand Lassalle, Toulouse, Occitanie, France
- Adresse web https://www.tetalab.org
- Tags rencontre, hacker, artistes-libristes, tetalab
[FR Choisy-le-Roi] Pas Sage en Seine - Du jeudi 28 juin 2018 à 10h00 au dimanche 1 juillet 2018 à 20h00.
Le festival auto-organisé par vous et l’équipe de Pas Sage En Seine se tiendra du 28 juin au 1er juillet 2017 à Choisy-le-Roi dans et aux abords de la Médiathèque Louis Aragon.
Nous vous invitons à participer à PSES2018 et venir participer à ses ateliers et conférences bien sûr, mais aussi installations, discussions et autres formes d’interventions.
Des thèmes sont proposés, pas imposés, pour laisser place à la manifestation d’idées originales.
Le Festival sera un moment convivial et festif pour décrire nos modes d’organisation, nos outils, nos perspectives, évoquer les usages d’autodéfense numériques faces aux perpétuelles manipulations sécuritaires.
Le vendredi sera une journée spéciale consacrée au RGPD, et le samedi soir (lors de la micro-nocturne jusqu’à 21h30) vous pourrez assister à un concert de chiptune réalisé par le collectif Chip Bangers.
L’Hacktiviste naît de cette prise de conscience intégrale. Il ouvre, détourne, invente tous les possibles, ou presque… Être et faire politiquement ensemble sera notre prochaine étape
Le trajet depuis le centre de Paris prend une petite vingtaine de minutes uniquement (Gare du RER C Choisy-le-Roi).
- Médiathèque Louis Aragon, 17 rue Pierre Mendès France, Choisy-le-Roi, Île-de-France, France
- Adresse web https://passageenseine.fr
- Tags numérique, hacktivisme, communs, privacy, hacking, white, atelier, conference
[FR Rennes] Conseil d’administration de Gulliver - Le jeudi 28 juin 2018 de 12h00 à 14h00.
Gulliver tiendra son conseil d’administration à la Maison de la Consommation et de l’Environnement (MCE) le jeudi 28 juin 2018 à partir de 12 h. L’ordre du jour est donné dans le lien ci-dessous.
Ce conseil d’administration est ouvert à tous. Toute personne, membre ou non membre de Gulliver, peut y assister (sauf CA exceptionnel signalé à l’avance), voir comment fonctionne notre association et y donner son avis.
La MCE est située 42 bd Magenta à Rennes (plan d’accès). La salle réservée est celle de l’accueil.
- Maison de la Consommation et de l’Environnement, 48 bd Magenta, Rennes, Bretagne, France
- Adresse web http://gulliver.eu.org/conseil_dadministration_juin_2018
- Tags gulliver, conseil-administration
[FR Martigues] Permanence du jeudi de l'ULLM - Le jeudi 28 juin 2018 de 16h30 à 18h30.
Comment utiliser et les Logiciels Libres.
avec l’association des Utilisateurs de Logiciels Libres du Pays de Martégal (ULLM).
28 2018 de 16h30 à 18h30 à la (quai des Anglais).
Entrée Libre. Tout public.
- Médiathèque de Martigues, quai des Anglais, Martigues, Provence-Alpes-Côte d’Azur, France
- Adresse web http://www.ullm.org
- Tags ullm, logiciels-libres, linux, permanence, gnu-linux
[FR Challans] Permanence Linux - Le jeudi 28 juin 2018 de 18h00 à 20h00.
Chaque dernier jeudi du mois, Linux Challans vous donne rendez-vous à l’Albanera Café, 17 rue du Général Leclerc 85 300 Challans.
Nous vous proposons lors de ces rendez-vous mensuels d’échanger autour du Libre, des conseils ou une assistance technique.
Vous pouvez venir pour vous faire aider, ou aider, à installer et paramétrer une distribution GNU/Linux de votre choix ou des logiciels libres sur votre ordinateur.
Recommandations
- Sauvegardez vos données avant de venir.
- Libérez de la place sur le disque dur (20 Go minimum) et défragmentez Windows si vous voulez le conserver.
- Nous prévenir de votre passage via la messagerie.
Vous pouvez aussi venir pour une première prise d’informations et de contacts.
Nous vous attendons toujours plus nombreux
- Albanera Café, 17 rue du Général Leclerc, Challans, Pays de la Loire, France
- Adresse web http://linuxchallans.org
- Tags linux-challans, permanence, rencontre, mensuelle, soirée, logiciels-libres, gnu-linux
[FR Bordeaux] Jeudi Giroll - Le jeudi 28 juin 2018 de 18h30 à 20h30.
Les membres du collectif Giroll, GIROnde Logiciels Libres, se retrouvent une fois par semaine, pour partager leurs savoir-faire et expériences autour des logiciels libres.
Le collectif réalise aussi une webradio mensuelle, tous les second mardis du mois, à retrouver en direct sur le site de Giroll.
Ses rencontres sont ouvertes à tous.
- Centre d’animation Saint Pierre, 4 rue du mulet, Bordeaux, Nouvelle-Aquitaine, France
- Adresse web https://www.giroll.org
- Tags rencontre, install-partie, giroll, webradio, logiciels-libres, rencontre-hebdomadaire
[FR Peymeinade] Install-Party GNU/Linux - Le jeudi 28 juin 2018 de 19h00 à 21h00.
Désormais tous les 4ᵉˢ mercredi du mois, Clic Ordi et Linux Azur vous proposent une install-party ouverte à tous et gratuite.
- Découvrez un monde rempli de Papillons, licornes, mais surtout de manchots
- Plus besoin de se soucier des virus et autres logiciels malveillants.
- Le support de Windows Vista s’arrête dans un an, et les principaux logiciels ont déjà arrêté leurs mise à jour, réagissez
- Ramenez vos ordinateurs obsolètes et donnez leur une seconde vie.
Nous aimerions développer autour de Handy-Linux (et de sa future mouture avec Debian-Facile) afin de répondre à des besoins simples pour des personnes difficiles à former et pouvant se retrouver en fracture numérique).
Nous sommes ouverts à tout, y compris à la bidouille sur l’atelier avec le fer à souder.
Organisé conjointement par http://clic-ordi.com/fr et https://www.linux-azur.org
- Magasin Clic Ordi, 65 avenue de Boutiny, Peymeinade, Provence-Alpes-Côte d’Azur, France
- Adresse web https://www.linux-azur.org/ral/ral-peymeinade-clicordi
- Tags linux-azur, install-party, clic-ordi, bidouille, handy-linux
[FR Vesseaux] Projection-débat du film « Nothing to hide » - Le jeudi 28 juin 2018 de 19h00 à 22h00.
Ouverture des portes à 19h pour partager un moment de convivialité, discuter des choses et d’autres comme les logiciels libres, les données personnelles, la vie privée
Il y a une buvette sur place, et vous pouvez également apporter un plat à partager ou biscuits apéro
La projection du film documentaire Nothing to Hide aura lieu à 20h30, et sera suivie d’un débat pour répondre à vos questions
« Dire que votre droit à la vie privée importe peu, car vous n’avez rien à cacher revient à dire que votre liberté d’expression importe peu, car vous n’avez rien à dire. Car même si vous n’utilisez pas vos droits aujourd’hui, d’autres en ont besoin. Cela revient à dire les autres ne m’intéressent pas », Edward Snowden
Ce documentaire aborde le thème de la vie privée et des données personnelles.
L’entrée est à prix libre (adhésion à l’association Vesseaux-Mère).
- le Vesseaux-Mère, 23 chemin du Prieuré, place de l'Église, Vesseaux, Auvergne-Rhône-Alpes, France
- Adresse web https://ardechelibre.org/projection-debat-du-film-documentaire-nothing-to-hide/
- Tags vie-privée, projection, nothing-to-hide, débat
[FR Paris] Soirée de Contribution au Libre - Le jeudi 28 juin 2018 de 19h30 à 22h30.
Parinux propose aux utilisateurs de logiciels libres de se réunir régulièrement afin de contribuer à des projets libres. En effet, un logiciel libre est souvent porté par une communauté de bénévoles et dépend d’eux pour que le logiciel évolue.
Nous nous réunissons donc tous les dans un environnement propice au travail (pas de facebook, pas de télé, pas de jeux vidéos, pas de zombies).
Vous aurez très probablement besoin d’un ordinateur portable, mais électricité et réseau fournis.
En cas de difficulté, vous pouvez joindre un des responsables de la soirée, Emmanuel Seyman (emmanuel (at) seyman.fr), Paul Marques Mota mota (at) parinux.org, ou Magali Garnero (Bookynette) tresorier (at) parinux.org.
Pour obtenir le code d’entrée de la porte cochère, envoyez un mail au responsable.
On peut amener de quoi se restaurer (Franprix, 8 rue du Chemin Vert, ferme à 22h)
Regazouillez sur Twitter - Wiki des soirées
Programme non exhaustif
- Fedora (sa traduction)
- Parinux, ses bugs et son infrastructure
- April, … y a toujours quelque chose à faire
- Open Food Facts/ Open Beauty Facts, sa base de données, ses contributeurs, sa roadmap
- Schema racktables, son code
- Agenda du Libre, mise à jour et amélioration du code
- Ubuntu-Fr, son orga, ses événements
- En vente libre, maintenance et commandes
- Open street map, une fois par mois
- Linux-Fr sait faire
- en vente libre
- …
tout nouveau projet est le bienvenu.
- FPH, 38 rue Saint-Sabin, Paris, Île-de-France, France
- Adresse web http://www.parinux.org/
- Tags parinux, scl, soirée-de-contribution-au-libre, fph, logiciels-libres
[FR Montpellier] Atelier du Libre Ubuntu et Logiciels Libres - Le vendredi 29 juin 2018 de 18h00 à 23h00.
L’équipe de Montpel’libre vous propose une permanence Logiciels Libres, discussions libres et accompagnements techniques aux systèmes d’exploitation libres, pour vous aider à vous familiariser avec votre système GNU/Linux au quotidien.
Le contenu de l’atelier s’adapte aux problèmes des personnes présentes et permet ainsi l’acquisition de nouvelles compétences au rythme de chacun.
Vous pourrez y aborder plusieurs thèmes
- Discussions conviviales entre utilisateurs autour de Linux en général
- Préinscription aux prochains Cafés Numériques et Install-Party
- Premières explorations du système
- Installations et configurations complémentaires
- Mise à jour et installation de nouveaux logiciels
- Prise en main, découverte et approfondissement du système
Les Ateliers du Libre ont lieu à la Mpt Melina Mercouri de Montpellier, tous les derniers vendredis de chaque mois de 18h00 à 20h00, sauf période de vacances.
Entrée libre et gratuite sur inscription. Une simple adhésion à l’association est possible et auprès de la Mpt.
Cet événement est proposé par le partenariat qui lie la Mpt Melina Mercouri de Montpellier et Montpel’libre.
Toute une équipe de passionnés, vous propose l’animation de l’Atelier du Libre par les membres de Montpel’libre. Permanence Logiciels Libres, discussions libres et accompagnements des utilisateurs aux systèmes exploitation libres, Linux, sur le cyberespace de consultations libres.
En fin de soirée, l’atelier fera progressivement place à un instant très convivial, les RDVL sont des rendez-vous mensuels de discussions sur le thème des logiciels libres, des arts libres, de l’open source et plus généralement de la culture du libre et du numérique.
Cette soirée, très conviviale, se passe autour d’un repas partagé, chacun porte un plat, entrée, spécialité, dessert, boisson… Ordinateurs et réseaux disponibles.
Notre équipe vous attend pour répondre à vos questions et satisfaire votre curiosité.
Maison pour tous Mélina Mercouri 842, rue de la vieille poste, 34 000 Montpellier
Bus ligne 9, La Ronde arrêt Pinville
GPS Latitude 43.61354 Longitude 3.908768
Carte OpenStreetMapRendez-vous mensuel, tous les derniers vendredis, salle jamais le dimanche
- Maison pour tous Mélina Mercouri, 842 rue de la Vieille Poste, Montpellier, Occitanie, France
- Adresse web http://montpel-libre.fr
- Tags atelibre, accompagnement, initiation, gnu-linux, logiciels-libres, montpel-libre, ubuntu
[FR Paris] Apéro April - Le vendredi 29 juin 2018 de 19h00 à 22h00.
Un apéro April consiste à se réunir physiquement afin de se rencontrer, de faire plus ample connaissance, d’échanger, de partager un verre et manger mais aussi de discuter sur le logiciel libre, les libertés informatiques, fondamentales, l’actualité et les actions de l’April…
Un apéro April est ouvert à toute personne qui souhaite venir, membre de l’April ou pas.
N’hésitez pas à venir nous rencontrer.
Où et quand cela se passe-t-il
L’apéro parisien aura lieu vendredi 29 juin 2018 à partir de 19h00 dans les locaux de l’April.
L’adresse
April, 44/46 rue de l’Ouest, bâtiment 8, 75 014 Paris (entrée possible par la place de la Catalogne, à gauche de la Biocoop, au niveau des Autolib).
Métros Gaîté, Pernety, Montparnasse. Sonner à « April » sur l’interphone.
Le téléphone du local 01 78 76 92 80.L’Apéro a lieu à Paris notamment parce que le local s’y trouve ainsi que les permanents et de nombreux actifs. Pour les apéros dans les autres villes voir sur le pad plus bas.
En ouverture de l’apéro nous ferons un court point sur les dossiers/actions en cours.
Le glou et le miam
Vous pouvez apporter de quoi boire et manger afin de reprendre des forces régulièrement. Nous prévoirons bien sûr un minimum vital.
Vous pouvez vous inscrire sur le pad.
- Bâtiment 8, 44/46 rue de l’Ouest, Paris, Île-de-France, France
- Adresse web https://pad.april.org/p/aperosapriljuin2018
- Tags apéro, april, rencontre
[FR Dijon] Atelier de création numérique et électronique - Le vendredi 29 juin 2018 de 20h30 à 23h59.
Le fablab et hackerspace l’abscisse vous propose comme tous les vendredis soir un atelier de création numérique et électronique.
L’atelier est équipé de différents outils perceuse, CNC, Arduino, Raspberry Pi, ordinateurs, oscilloscope, multimètre.
Une ressourcerie est à disposition, vous y trouverez des composants électroniques et des pièces détachées à prix libre.
Vous pouvez venir découvrir l’atelier et les usagers du fablab à partir de 20h30.
Vous pouvez aussi venir pour participer aux travaux numériques en cours, partager vos connaissances et vos savoir-faire.
Tous nos travaux sont libres et documentés sous licence libre.
- Fablab et hackerspace l’abscisse, 6 impasse Quentin, Dijon, Bourgogne-Franche-Comté, France
- Adresse web https://fablab.coagul.org
- Tags lab6, coagul, électronique, atelier, fablab
[FR Saint-Jean-de-Védas] Repair Café - Le samedi 30 juin 2018 de 09h00 à 13h00.
Nous vous proposons ce rendez-vous, où, bricoleurs, acteurs, bénévoles, associations, vous attendent pour vous aider à donner une deuxième vie à vos objets.
Réparer ensemble, c’est l’idée des Repair Cafés dont l’entrée est ouverte à tous. Outils et matériel sont disponibles à l’endroit où est organisé le Repair Café, pour faire toutes les réparations possibles et imaginables. Vêtements, meubles, appareils électriques, bicyclettes, vaisselle, objets utiles, jouets, et autres. D’autre part sont présents dans le Repair Café des experts bénévoles, qui ont une connaissance et une compétence de la réparation dans toutes sortes de domaines.
On y apporte des objets en mauvais état qu’on a chez soi. Et on se met à l’ouvrage avec les gens du métier. Il y a toujours quelque chose à apprendre au Repair Café. Ceux qui n’ont rien à réparer prennent un café ou un thé, ou aident à réparer un objet appartenant à un autre. On peut aussi toujours y trouver des idées à la table de lecture qui propose des ouvrages sur la réparation et le bricolage.
Repair Café est un atelier consacré à la réparation d’objets et organisé à un niveau local, entre des personnes qui habitent ou fréquentent un même endroit, par exemple un quartier ou un village. Ces personnes se rencontrent périodiquement en un lieu déterminé, dans un café, une salle des fêtes ou un local associatif où des outils sont mis à leur disposition et où ils peuvent réparer un objet qu’ils ont apporté, aidés par des volontaires.
Les objectifs de cette démarche alternative sont divers
- réduire les déchets
- préserver l’art de réparer des objets
- renforcer la cohésion sociale entre les habitants des environs
Seront présents
- Autour.com : On se rend des services entre voisins, on partage des infos, on prête, on loue, on donne…
- L’Accorderie : Est un système d’échange de services entre habitants d’un même quartier ou d’une même ville.
- La Gerbe : Contribuer à la formation de citoyens éveillés, engagés et solidaires en offrant aux enfants et aux jeunes un espace privilégié d’expression et d’épanouissement Crèche, Centre de loisirs, Scoutisme, Ateliers, chacun peut y trouver un cadre pour son développement grâce au travail d’une équipe de professionnels et de bénévoles.
- Les Compagnons Bâtisseurs : Prévoient d’amener des outils
- Les Petits Débrouillards : est un réseau national de culture scientifique et technique, ils viendront avec pleins de conseils et une imprimante 3D.
- Le Faubourg : Hébergera le Repear Café.
- Montpel’libre : Sera là avec des pièces informatiques, pour essayer de reconditionner des ordinateurs, dépanner ceux qui ne fonctionnent plus, expliquer comment ça marche, faire comprendre le choix judicieux du logiciel libre, contourner l’obsolescence programmée grâce à GNU/Linux, comment réparer et entretenir son matériel soi-même, nous porterons un jerry.
- TechLabLR : Accompagne les projets à composantes technologiques afin de les amener au pré-prototype, puis les guider vers les structures d’accompagnements.
- Violons Dingues : Passionnés de la vie, des autres, de la culture, de l’art, du sport, de la mécanique, de la moto, de la photo, de la musique, des animaux, des insectes, des plantes, de l’environnement, enfin de tout ce qui circule (au propre comme au figuré) sur notre planète.
Zéro Waste Montpellier : La démarche « Zéro Waste » est une démarche positive pour aller vers une société zéro déchet et zéro gaspillage.
Maison des Associations, 18 bis rue Fon de l’Hospital, Saint-Jean-de-Védas, Occitanie, France
Adresse web http://montpel-libre.fr
Tags
montpel-libre, repair-cafe, atelier
[FR Casseneuil] Install Partie GNU/Linux - Le samedi 30 juin 2018 de 10h00 à 17h00.
Le Samedi 30 Juin les bénévoles d’aGeNUx sont invités dans les locaux d’Avec 2L pour une Install-party.
Venez découvrir et partager le monde du logiciel libre en toute sérénité.
Animation Libre et non payante.
Auberge Espagnole le midi.
Avec 2L se situe derrière la poste de Casseneuil
- Avec 2L, chemin de la Tuilerie, Casseneuil, Nouvelle-Aquitaine, France
- Adresse web http://www.agenux.org
- Tags install-party, agenux, logiciels-libres, gnu-linux
[FR Wintzenheim] Réunion du Club Linux - Le samedi 30 juin 2018 de 13h00 à 19h00.
Comme tous les 3 samedis, le Club Linux de la MJC du Cheval Blanc se réunit et accueille toutes les personnes qui souhaitent découvrir ou approfondir Linux et les Logiciels Libres. Aucune compétence n’est demandée.
Pendant ces rencontres, informelles,
- nous accueillons celles et ceux qui cherchent une réponse ou souhaitent découvrir Linux et les Logiciels Libres,
- nous installons Linux sur des ordinateurs, la plupart des fois en « dual boot »(*), ce qui permet de conserver l’ancien système (par exemple Windows) et d’utiliser quand même, en choisissant au démarrage,
- nous partageons nos recherches et nos découvertes, les nouveautés.
Le Club Linux est également impliqué dans une démarche de libération des GAFAM (Google Apple Facebook Amazon Microsoft) et de promotion de solutions libres comme, entre autres, Wikipedia, Openstreetmap, les Framatrucs (*), les Chatons (*) et beaucoup d’autres.
(*) : mais on vous expliquera
- MJC du Cheval Blanc, 1 faubourg des Vosges, Wintzenheim, Grand Est, France
- Adresse web http://mjc-chevalblanc.fr/-club-linux-.html
- Tags linux, logiciel-libre, mjc-du-cheval-blanc, club-linux
[FR Villefranche-sur-Saône] Repaircafé - Le samedi 30 juin 2018 de 13h30 à 17h30.
Dernier Repaircafé caladois mensuel de la saison avant les vacances.
Avec la participation habituelle de la CAGULL.
- Caveau Jacques Higelin, 230 rue de la Quarantaine, Villefranche-sur-Saône, Auvergne-Rhône-Alpes, France
- Adresse web https://repaircafe.org/en/locations/repair-cafe-villefranche-sur-saone
- Tags cagull, repair-cafe, reparer, recyclage
[FR Marseille] Install Party GNU/Linux - Le samedi 30 juin 2018 de 14h00 à 19h00.
L’association (CercLL d’Entraide et Réseau Coopératif autour des Logiciels Libres) vous invite à une install party GNU/Linux, le, dans la salle du Foyer du Peuple 50 rue Brandis 13 005 Marseille.
Vous avez envie de découvrir un système d’exploitation libre, simple d’utilisation, stable, rapide et sécurisé. Une nouvelle façon d’utiliser votre ordinateur.
Vous vous sentez une affection naissante pour le Gnou et le, les mascottes de
Au programme
DÉCOUVERTE de l’univers des logiciels libres.
INSTALLATION d’un environnement GNU/ Linux, ainsi que le meilleur des logiciels libres.
Venez avec votre ordinateur, nous installerons ensemble une distribution avec un ensemble de et pour une utilisation quotidienne.
Ouvert à tous – accessible aux débutant-e-s
Une participation de 2 euros est demandée.
L’adhésion à l’association est de 20 euros annuelle.(L’adhésion n’est pas obligatoire).
- Foyer du Peuple, 50 rue Brandis, Marseille, Provence-Alpes-Côte d’Azur, France
- Adresse web https://cercll.wordpress.com/espace-evenement
- Tags cercll, foyer-du-peuple, install-party, logiciels-libres, gnu-linux, ubuntu, xubuntu, mageia, debian
[BE Liège] Linux Install Party - Le samedi 30 juin 2018 de 14h00 à 18h00.
Une Linux Install Party a lieu tous les derniers samedis du mois de septembre à juin, dans les locaux du Cyber Seniors Énéo de Grivegnée, où je suis animateur.
L’accès et la participation à l’Install Party est ouvert à tous et est gratuit.
Vous venez avec votre ordinateur et on y installe le Linux que vous désirez.
Les installations commencent à 14h et finissent à 18h.
Prévoyez de venir avant 17h, parfois ça peut durer longtemps.- Cyber Seniors Énéo, rue Fraischamps 74b, Liège, Liège, Belgique
- Adresse web http://www.jhc-info.be
- Tags linux, gnu-linux, install-party, installation, logiciels-libres
[FR Ivry sur Seine] Cours de l’Ecole du Logiciel Libre - Le samedi 30 juin 2018 de 14h30 à 18h30.
Présentation de l’E2L
Quel est le rôle de l’école du logiciel libre
Tout d’abord, ce n’est pas une école comme les autres. Elle n’a pas d’établissement fixe, pas de cours de récréation, pas de carte d’étudiant, ni de diplôme de fin d’année.
Comme toutes les écoles, son rôle est d’apprendre à ses élèves les logiciels libres, c’est-à-dire
- comment en trouver de bons parmi les nombreux sites qui en proposent,
- comment en prendre possession en fonction des licences,
- comment les installer en fonction de ses besoins,
- comment les tester et les utiliser,
- comment en comprendre le fonctionnement pour ensuite les modifier,
- comment écrire ses propres logiciels libres.
En fait, l’école du logiciel libre est une université populaire, comme celles qui ont vu le jour en France à partir du 19ᵉ siècle, et dont le but est de transmettre des connaissances théoriques ou pratiques à tous ceux qui le souhaitent. Et pour atteindre ce but, sa forme juridique est de type " association à but non lucratif ".
Comment fonctionne l’école
Cette école étant une association, elle possède, comme toutes les autres, un bureau, élu chaque année en assemblée générale, pour l’administrer. Mais elle a aussi des responsables pédagogiques dont le rôle est essentiel, car ce sont eux qui établissent les programmes des cours en fonction des souhaits des adhérents, valident les candidatures des enseignants et affectent les sessions.
Les membres du bureau et les responsables pédagogiques forment « l’encadrement de l’école ». Tous les membres « encadrants » doivent être membres de l’association.
Les locaux où se déroulent les cours seront ceux que l’on veut bien nous prêter une salle des fêtes, un théâtre, une salle de réunion publique, un amphi dans une école publique, ou autre.
Les thèmes des cours sont définis par les adhérents en fonction de leurs envies, de leurs besoins. Les cours sont ensuite décidés par les responsables pédagogiques de l’école en fonction des enseignants disponibles.
Afin de permettre au plus grand nombre de participer et d’assister aux cours, les sessions se tiennent essentiellement le samedi. Une première de 9h à 12h30, et une autre de 14h à 17h30.
Programme détaillé sur le site http://e2li.org
- Salle LCR, 79 avenue Danielle Casanova, Ivry sur Seine, Île-de-France, France
- Adresse web https://e2li.org
- Tags e2l, cours, ecole-du-logiciel-libre, logiciels-libres
[FR Courbevoie] Assemblée Générale annuelle de l'association StarinuX - Le samedi 30 juin 2018 de 14h30 à 17h00.
L'association GULL StarinuX vous invite à son
ASSEMBLÉE GÉNÉRALE annuelle
le samedi 30 juin 2018 à 14h30,
48 rue de Colombes 92 400 Courbevoie
(SNCF Gare de Courbevoie, Saint Lazare <=> La Défense).
Seuls les adhérent(e)s peuvent voter, mais les discussions restent ouvertes à tous les présents.
Un déjeuner facultatif aura lieu à 12h30.
Au plaisir de nous rencontrer à l’AG 2018
Le Bureau de StarinuX
- Bâtiment des associations, 48 rue de Colombes, Courbevoie, Île-de-France, France
- Adresse web https://www.starinux.org/ag-2018/index.php
- Tags starinux, assemblee-generale
[FR Poucharramet] Festival AgitaTerre - Le dimanche 1 juillet 2018 de 09h30 à 23h00.
L’association 3PA Formation vous invite à la cinquième édition du Festival AgitaTerre Nous vous donnons rendez-vous le dimanche 1er juillet au coeur du village de Poucharramet (31), entre la place des Marronniers et La Maison de la Terre
Venez découvrir des alternatives durables, locales et citoyennes qui font vivre notre territoire. Cette année, le festival investit le thème des Communs venez en apprendre plus
Un événement gratuit et tout public
9h30-18h
Marché de producteurs et artisans-créateurs locaux
Forum associatif & Village des CommunsConférences
Expositions « C’est quoi les Communs »
Ateliers tous publicsExpositions d’artistes sculpteurs sur bois
Mur d’expression libre
Vannerie géante collectiveConcerts
Spectacles et animationsBuvette & Restauration
Espace enfants20h30 Grand concert en plein air avec notre partenaire La Maison de la Terre
Programmation et exposants sur www.agitaterre.fr
Infos agitaterre@3paformation.fr // 3PA 05.61.08.11.30
Parking sur place
Adapté aux personnes à mobilité réduite- Place des Marronniers, Poucharramet, Occitanie, France
- Adresse web http://association3pa.wixsite.com/agitaterre
- Tags agitaterre, festival, alternatives, écologie, conférences
Commentaires : voir le flux atom ouvrir dans le navigateur
L'actualité de cette partie est agrégé automatiquement à partir d'autres sites.
Contenus ©2006-2024 Benjamin Poulain
Design ©2006-2024 Maxime Vantorre