diff options
author | NeodarZ <neodarz@neodarz.net> | 2017-05-19 15:43:03 +0200 |
---|---|---|
committer | NeodarZ <neodarz@neodarz.net> | 2017-05-19 15:43:03 +0200 |
commit | 7d35d4f394f3a774b8b99e5a24a3c4cf9f6efa7b (patch) | |
tree | fb0053275f0f4f79595fb2a4e7b45ec1af54afd1 | |
parent | 2c4315f47b0f481bbcb6372acd951ca995d9c215 (diff) | |
download | my_new_personal_website-7d35d4f394f3a774b8b99e5a24a3c4cf9f6efa7b.tar.xz my_new_personal_website-7d35d4f394f3a774b8b99e5a24a3c4cf9f6efa7b.zip |
Add tagcloud
Diffstat (limited to '')
-rwxr-xr-x | pyblog | 66 | ||||
-rw-r--r-- | source/css/theme.css | 18 | ||||
-rw-r--r-- | source/website/Documents/veille_techno.md | 59 |
3 files changed, 109 insertions, 34 deletions
@@ -39,6 +39,7 @@ import lxml.etree as ET from bs4 import UnicodeDammit from pprint import pprint +import requests ############################# BLOG CONFIGURATIONS ############################## # Safe to customize @@ -475,10 +476,10 @@ def generate_table(): # documents_fileList.append(name) # Generate the string who contain the links of the menu - htmly_website_page = "<ul>" - for name in os.listdir(os.path.join(BUILDDIR, "website/Documents/Situation2")): - htmly_website_page += "<a href='/website/Documents/Situation2/"+name+"' class='situation2lia'><li><span class='situation2left-lia'></span><span class='situation2center-lia'>"+name.split('.html')[0]+"</span><span class='situation2right-lia'></span></li></a>" - htmly_website_page += "</ul>" + #htmly_website_page = "<ul>" + #for name in os.listdir(os.path.join(BUILDDIR, "website/Documents/Situation2")): + # htmly_website_page += "<a href='/website/Documents/Situation2/"+name+"' class='situation2lia'><li><span class='situation2left-lia'></span><span class='situation2center-lia'>"+name.split('.html')[0]+"</span><span class='situation2right-lia'></span></li></a>" + #htmly_website_page += "</ul>" # Writing the menu in all pages contained in the variable in place of the -- generate submenu here -- for document_file in documents_fileList: @@ -539,6 +540,62 @@ def generate_table(): os.remove(tmppath) +def generate_tagcloud(): + """Generate tagcloud.""" + + first_comp = 1 + first_pr = 1 + tr_class = "odd" + + documents_fileList = [] + documents_fileList.append("/website/Documents/veille_techno.html") + + r = requests.get("https://shaarli.neodarz.net/?do=tagcloud") + data = r.text + soup = bs4.BeautifulSoup(data, 'lxml') + + fd, tmppath = tempfile.mkstemp() + os.close(fd) + + htmly_website_page = "" + + if os.path.exists(BUILDDIR+"/website/Documents/veille_techno.html"): + sys.stderr.write("generating tagcloud\n") + + # Put in a list the pages where the menu will be written + #for root, dirs, files in os.walk(BUILDDIR+"/website/Documents/Situation2"): + # for name in files: + # if name.endswith(".html"): + # try: + # documents_fileList.append(os.path.join(root.split('build')[1], name)) + # except IndexError: + # documents_fileList.append(name) + + # Generate the string who contain the links of the menu + #htmly_website_page = "<ul>" + #for name in os.listdir(os.path.join(BUILDDIR, "website/Documents/Situation2")): + # htmly_website_page += "<a href='/website/Documents/Situation2/"+name+"' class='situation2lia'><li><span class='situation2left-lia'></span><span class='situation2center-lia'>"+name.split('.html')[0]+"</span><span class='situation2right-lia'></span></li></a>" + #htmly_website_page += "</ul>" + + #Writing the menu in all pages contained in the variable in place of the -- generate submenu here -- + for document_file in documents_fileList: + with open(tmppath, 'w', encoding='utf-8') as tmpfile: + if os.path.exists("build"+document_file): + with open("build"+document_file, 'r', encoding='utf-8') as indexmd: + lines = indexmd.readlines() + with open("build"+document_file, 'w', encoding='utf-8') as indexmd: + for line in lines: + indexmd.write(re.sub(r'-- generate tagcloud --', str(soup.find('div', {'id': 'cloudtag'})), line)) + #https://shaarli.neodarz.net/ + with open("build"+document_file, 'r', encoding='utf-8') as indexmd: + lines = indexmd.readlines() + with open("build"+document_file, 'w', encoding='utf-8') as indexmd: + for line in lines: + indexmd.write(re.sub(r'\?searchtags=', 'https://shaarli.neodarz.net/?searchtags=', line)) + + + os.remove(tmppath) + def generate_blog_list(feed): """"Generate blog list """ @@ -1062,6 +1119,7 @@ def generate_index_and_feed(): generate_situation1menu() generate_situation2menu() generate_table() + generate_tagcloud() generate_blog_list(feed) generate_notes_list() rewrite_title() diff --git a/source/css/theme.css b/source/css/theme.css index 8ee111a6..95b14808 100644 --- a/source/css/theme.css +++ b/source/css/theme.css @@ -564,6 +564,24 @@ table { text-align: center; } +/*** tag cloud ***/ + +#cloudtag { + width: 50%; + margin: 0 auto; + border: 1px solid white; + padding: 10px; +} + +#cloudtag a { + text-decoration: none; + font-weight: bold; +} + +#cloudtag span { + font-weight: lighter; +} + /*** Wide screen ***/ @media screen and (min-width: 1441px) { diff --git a/source/website/Documents/veille_techno.md b/source/website/Documents/veille_techno.md index c4a8a121..5aad21f7 100644 --- a/source/website/Documents/veille_techno.md +++ b/source/website/Documents/veille_techno.md @@ -4,49 +4,48 @@ </div> </nav> -# Mise en place +# Organisation -## Organisation +Ma veille technologique c'est principalement concentrée sur les logiciels libre +et open-source malgré le fait que les partagé ne portent pas uniquement sur ce +sujet. Tous les liens partagés sont tagué de manière la plus pertinante possible. -- Cibler le térritoire de la veille par mots clés -- Mon téritoire de veille +<!-- <iframe src="https://shaarli.neodarz.net/?do=tagcloud" style="width: 50%; height: 500px; margin-left: 25%;"></iframe> --> -## Collecte +## Tag cloud -- flux RSS -- moteur de recherche -- réseaux sociaux +-- generate tagcloud -- -## Partage +# Collecte -- shaarli (partage de lien) +Afin de collecter les éléments nécessaires à ma veille technologique j'utilise +un lecteur de flux RSS, Newsbeutter en ligne de commande. -## Sauvegarde - -- utilisation de la wayback archive +SCREEN DE NEWSBEUTTER -seulement utilisé pour les articles de blogs qui sont utile a mettre de coter +J'utilise aussi différents moteurs de recherche pour effectuer ma veille. Pour +celà j'utilise le méta moteur searx, nottament +[l'instance de la quatrature du net](https://searx.laquadrature.net), qui me +permet de faire mes recherches sur différents moteurs en même temps et le tout +en protégant ma vie privée. +SCREEN DE SEARX + INSTALLATION !!!!! -Lors de ma veille technologique j'ai utilisé deux logiciels. -L'un permet de récupérer les flux RSS de divers site web et l'autre permet de -partager les liens qui me semble utile. +J'utilise par la même occasion Mastondon et Twitter, deux réseaux sociaux de +microbloging qui me permettent de suivre d'autre source d'informations. -Le logiciel qui me permet de récupérer mes flux RSS est Newsbeutter. +# Partage -SCREEN DE NEWSBEUTTER - -Le logiciel qui permet de partager les liens qui me semblent utile est Shaarli. -C'est une application web très simple qui s'héberge sur un site web et qui -genère un flux RSS des liens partagé. +Afin de partager des liens qui me semblent utile à mettre de côter ou à partager +j'utilise une application web que j'héberge sur mon site web et qui permet de +générer un flux RSS des liens partagé. SCREEN DE SHAARLI -# Thème de veille - -Le thème principal de ma veille technologique est principalement les logiciels -libre et open source. -Les liens partagé ne sont pas tous en rapport avec cette veille mais tous les -liens partagé sont tagué est facilement accesible via un nuage de tag. +# Sauvegarde -IMAGE NUAGE DE TAG AVEC LIEN + DATE DU SCREEN +Lorsque que je partage un liens, comme par exemple un article de blog, je fait +une sauvegarde sur la wayback archive si la sauvegarde de celui-ci est +pertinantes. La [Wayback archive](https://fr.wikipedia.org/wiki/Wayback_Machine) ([Site officiel](https://web.archive.org/))est un site web qui permet de faire de captures +d'un site web et de les ranger par date. Au total il y a 284 billion de sites +web sauvegardé... |