aboutsummaryrefslogtreecommitdiff
diff options
context:
space:
mode:
authorNeodarZ <neodarz@neodarz.net>2017-05-19 15:43:03 +0200
committerNeodarZ <neodarz@neodarz.net>2017-05-19 15:43:03 +0200
commit7d35d4f394f3a774b8b99e5a24a3c4cf9f6efa7b (patch)
treefb0053275f0f4f79595fb2a4e7b45ec1af54afd1
parent2c4315f47b0f481bbcb6372acd951ca995d9c215 (diff)
downloadmy_new_personal_website-7d35d4f394f3a774b8b99e5a24a3c4cf9f6efa7b.tar.xz
my_new_personal_website-7d35d4f394f3a774b8b99e5a24a3c4cf9f6efa7b.zip
Add tagcloud
-rwxr-xr-xpyblog66
-rw-r--r--source/css/theme.css18
-rw-r--r--source/website/Documents/veille_techno.md59
3 files changed, 109 insertions, 34 deletions
diff --git a/pyblog b/pyblog
index 256ed9e3..f0dad462 100755
--- a/pyblog
+++ b/pyblog
@@ -39,6 +39,7 @@ import lxml.etree as ET
from bs4 import UnicodeDammit
from pprint import pprint
+import requests
############################# BLOG CONFIGURATIONS ##############################
# Safe to customize
@@ -475,10 +476,10 @@ def generate_table():
# documents_fileList.append(name)
# Generate the string who contain the links of the menu
- htmly_website_page = "<ul>"
- for name in os.listdir(os.path.join(BUILDDIR, "website/Documents/Situation2")):
- htmly_website_page += "<a href='/website/Documents/Situation2/"+name+"' class='situation2lia'><li><span class='situation2left-lia'></span><span class='situation2center-lia'>"+name.split('.html')[0]+"</span><span class='situation2right-lia'></span></li></a>"
- htmly_website_page += "</ul>"
+ #htmly_website_page = "<ul>"
+ #for name in os.listdir(os.path.join(BUILDDIR, "website/Documents/Situation2")):
+ # htmly_website_page += "<a href='/website/Documents/Situation2/"+name+"' class='situation2lia'><li><span class='situation2left-lia'></span><span class='situation2center-lia'>"+name.split('.html')[0]+"</span><span class='situation2right-lia'></span></li></a>"
+ #htmly_website_page += "</ul>"
# Writing the menu in all pages contained in the variable in place of the -- generate submenu here --
for document_file in documents_fileList:
@@ -539,6 +540,62 @@ def generate_table():
os.remove(tmppath)
+def generate_tagcloud():
+ """Generate tagcloud."""
+
+ first_comp = 1
+ first_pr = 1
+ tr_class = "odd"
+
+ documents_fileList = []
+ documents_fileList.append("/website/Documents/veille_techno.html")
+
+ r = requests.get("https://shaarli.neodarz.net/?do=tagcloud")
+ data = r.text
+ soup = bs4.BeautifulSoup(data, 'lxml')
+
+ fd, tmppath = tempfile.mkstemp()
+ os.close(fd)
+
+ htmly_website_page = ""
+
+ if os.path.exists(BUILDDIR+"/website/Documents/veille_techno.html"):
+ sys.stderr.write("generating tagcloud\n")
+
+ # Put in a list the pages where the menu will be written
+ #for root, dirs, files in os.walk(BUILDDIR+"/website/Documents/Situation2"):
+ # for name in files:
+ # if name.endswith(".html"):
+ # try:
+ # documents_fileList.append(os.path.join(root.split('build')[1], name))
+ # except IndexError:
+ # documents_fileList.append(name)
+
+ # Generate the string who contain the links of the menu
+ #htmly_website_page = "<ul>"
+ #for name in os.listdir(os.path.join(BUILDDIR, "website/Documents/Situation2")):
+ # htmly_website_page += "<a href='/website/Documents/Situation2/"+name+"' class='situation2lia'><li><span class='situation2left-lia'></span><span class='situation2center-lia'>"+name.split('.html')[0]+"</span><span class='situation2right-lia'></span></li></a>"
+ #htmly_website_page += "</ul>"
+
+ #Writing the menu in all pages contained in the variable in place of the -- generate submenu here --
+ for document_file in documents_fileList:
+ with open(tmppath, 'w', encoding='utf-8') as tmpfile:
+ if os.path.exists("build"+document_file):
+ with open("build"+document_file, 'r', encoding='utf-8') as indexmd:
+ lines = indexmd.readlines()
+ with open("build"+document_file, 'w', encoding='utf-8') as indexmd:
+ for line in lines:
+ indexmd.write(re.sub(r'-- generate tagcloud --', str(soup.find('div', {'id': 'cloudtag'})), line))
+ #https://shaarli.neodarz.net/
+ with open("build"+document_file, 'r', encoding='utf-8') as indexmd:
+ lines = indexmd.readlines()
+ with open("build"+document_file, 'w', encoding='utf-8') as indexmd:
+ for line in lines:
+ indexmd.write(re.sub(r'\?searchtags=', 'https://shaarli.neodarz.net/?searchtags=', line))
+
+
+ os.remove(tmppath)
+
def generate_blog_list(feed):
""""Generate blog list """
@@ -1062,6 +1119,7 @@ def generate_index_and_feed():
generate_situation1menu()
generate_situation2menu()
generate_table()
+ generate_tagcloud()
generate_blog_list(feed)
generate_notes_list()
rewrite_title()
diff --git a/source/css/theme.css b/source/css/theme.css
index 8ee111a6..95b14808 100644
--- a/source/css/theme.css
+++ b/source/css/theme.css
@@ -564,6 +564,24 @@ table {
text-align: center;
}
+/*** tag cloud ***/
+
+#cloudtag {
+ width: 50%;
+ margin: 0 auto;
+ border: 1px solid white;
+ padding: 10px;
+}
+
+#cloudtag a {
+ text-decoration: none;
+ font-weight: bold;
+}
+
+#cloudtag span {
+ font-weight: lighter;
+}
+
/*** Wide screen ***/
@media screen and (min-width: 1441px) {
diff --git a/source/website/Documents/veille_techno.md b/source/website/Documents/veille_techno.md
index c4a8a121..5aad21f7 100644
--- a/source/website/Documents/veille_techno.md
+++ b/source/website/Documents/veille_techno.md
@@ -4,49 +4,48 @@
</div>
</nav>
-# Mise en place
+# Organisation
-## Organisation
+Ma veille technologique c'est principalement concentrée sur les logiciels libre
+et open-source malgré le fait que les partagé ne portent pas uniquement sur ce
+sujet. Tous les liens partagés sont tagué de manière la plus pertinante possible.
-- Cibler le térritoire de la veille par mots clés
-- Mon téritoire de veille
+<!-- <iframe src="https://shaarli.neodarz.net/?do=tagcloud" style="width: 50%; height: 500px; margin-left: 25%;"></iframe> -->
-## Collecte
+## Tag cloud
-- flux RSS
-- moteur de recherche
-- réseaux sociaux
+-- generate tagcloud --
-## Partage
+# Collecte
-- shaarli (partage de lien)
+Afin de collecter les éléments nécessaires à ma veille technologique j'utilise
+un lecteur de flux RSS, Newsbeutter en ligne de commande.
-## Sauvegarde
-
-- utilisation de la wayback archive
+SCREEN DE NEWSBEUTTER
-seulement utilisé pour les articles de blogs qui sont utile a mettre de coter
+J'utilise aussi différents moteurs de recherche pour effectuer ma veille. Pour
+celà j'utilise le méta moteur searx, nottament
+[l'instance de la quatrature du net](https://searx.laquadrature.net), qui me
+permet de faire mes recherches sur différents moteurs en même temps et le tout
+en protégant ma vie privée.
+SCREEN DE SEARX + INSTALLATION !!!!!
-Lors de ma veille technologique j'ai utilisé deux logiciels.
-L'un permet de récupérer les flux RSS de divers site web et l'autre permet de
-partager les liens qui me semble utile.
+J'utilise par la même occasion Mastondon et Twitter, deux réseaux sociaux de
+microbloging qui me permettent de suivre d'autre source d'informations.
-Le logiciel qui me permet de récupérer mes flux RSS est Newsbeutter.
+# Partage
-SCREEN DE NEWSBEUTTER
-
-Le logiciel qui permet de partager les liens qui me semblent utile est Shaarli.
-C'est une application web très simple qui s'héberge sur un site web et qui
-genère un flux RSS des liens partagé.
+Afin de partager des liens qui me semblent utile à mettre de côter ou à partager
+j'utilise une application web que j'héberge sur mon site web et qui permet de
+générer un flux RSS des liens partagé.
SCREEN DE SHAARLI
-# Thème de veille
-
-Le thème principal de ma veille technologique est principalement les logiciels
-libre et open source.
-Les liens partagé ne sont pas tous en rapport avec cette veille mais tous les
-liens partagé sont tagué est facilement accesible via un nuage de tag.
+# Sauvegarde
-IMAGE NUAGE DE TAG AVEC LIEN + DATE DU SCREEN
+Lorsque que je partage un liens, comme par exemple un article de blog, je fait
+une sauvegarde sur la wayback archive si la sauvegarde de celui-ci est
+pertinantes. La [Wayback archive](https://fr.wikipedia.org/wiki/Wayback_Machine) ([Site officiel](https://web.archive.org/))est un site web qui permet de faire de captures
+d'un site web et de les ranger par date. Au total il y a 284 billion de sites
+web sauvegardé...