Flux rss avec Sfeed et JGmenu

#Linux #Web

Sfeed est un agrégateur de flux rss écrit en C et fonctionnant en local. Son utilisation est simple et malléable, s'adaptant à un grand nombre d'utilisation.

Pour ma part je l'utilise comme lecteur web,le logiciel est capable de transformer vos flux en une page html.

https://rss.bloguslibrus.fr

Sfeed est donc compilé sur mon serveur et j'ai ajouté ce qui suit à cron pour automatiser le tout.

PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/sbin:/usr/sbin:/sbin
* */6 * * * /home/justin/.sfeed/feedup
59 23 * * 0 rm -rf /home/justin/.sfeed/feeds >/dev/null 2>&1

Le script feedup met à jour les flux, génère la page html et le fichier txt.

#!/bin/sh

sfeed_update
echo "Generating HTML and TXT files"
sfeed_html $HOME/.sfeed/feeds/* > "$HOME/.sfeed/feeds.html"
sfeed_plain $HOME/.sfeed/feeds/* > "$HOME/.sfeed/feeds.txt"
echo "Done"

La deuxième tâche cron fait le ménage tous les dimanches à 23h59. La commande sfeed_update rajoute les nouveaux éléments des flux et on se retrouve rapidement avec des listes trop grandes et on perd en confort de lecture.
Il est possible de coder une fonction sfeed_archive (le dev en expose une ébauche sur son site), mais mes connaissances et ma persévérance ne me permettent pas de réaliser une telle tâche.

Ensuite j'ai repris le script pour dmenu Sur le site du développeur et simplement adapté un peu le tout pour qu'il fonctionne avec JGmenu.

#!/bin/sh

wget -O ~/.sfeed/feeds.txt https://rss.bloguslibrus.fr/feeds.txt
grep "^N" ~/.sfeed/feeds.txt| sort -r | sed 's/^.\{37\}//g' |
sed 's/,//' | sed 's/http/, x-www-browser http/g' > ~/.sfeed/nfeeds.txt
url=$(cat ~/.sfeed/nfeeds.txt | jgmenu --simple)

Le résultat est agréable et efficace.

JGmenu et Sfeed - JGfeed


https://codemadness.org/git/sfeed/file/README.html https://jgmenu.github.io/

Si le billet vous a plu, n'hésitez pas laisser un commentaire ou bien passer déposer quelquechose dans ma Mystery Box.