]> kaliko git repositories - sid.git/blobdiff - sid/feeds.py
Bump version
[sid.git] / sid / feeds.py
index a40f7662e8f14383d1d55089dd12f59fa91b82b5..3fe7ce9ecdd406dbe9d9ba43b977e01c5e6144ba 100644 (file)
@@ -1,24 +1,30 @@
 # -*- coding: utf-8 -*-
+# SPDX-FileCopyrightText: 2011, 2014, 2020 kaliko <kaliko@azylum.org>
+# SPDX-License-Identifier: GPL-3.0-or-later
+"""Publish news from various Debian feeds (security, planet, package tracker, see :py:obj:`sid.feeds.Feeds.FEEDS` for defaults).
 
-# Copyright (C) 2011, 2014 kaliko <kaliko@azylum.org>
+Can easily be used for other feeds (rss, atom).
 
-# This program is free software: you can redistribute it and/or modify
-# it under the terms of the GNU General Public License as published by
-# the Free Software Foundation, version 3 only.
+.. note::
+  Feeds plugin depends on external module: **feedparser**
 
-# This program is distributed in the hope that it will be useful,
-# but WITHOUT ANY WARRANTY; without even the implied warranty of
-# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
-# GNU General Public License for more details.
-
-# You should have received a copy of the GNU General Public License
-# along with this program.  If not, see <http://www.gnu.org/licenses/>.
+>>> from sid.feeds import Feeds
+>>> # Time between check in seconds
+>>> Feeds.TEMPO = 60
+>>> # Fedds to monitor, cf. sid.feeds.Feeds.FEEDS for defaults
+>>> Feeds.FEEDS = [
+        'https://example.org/feeds/atom/news.atom.xml'
+        ]
+"""
 
 import datetime
 import threading
 import time
 import traceback
 
+from urllib.error import URLError
+from urllib.parse import urlparse
+
 from feedparser import parse as feed_parse
 
 from .plugin import Plugin, botcmd
@@ -52,62 +58,68 @@ class FeedMonitor(threading.Thread):
         self.seen = dict()
         self.thread_killed = False
 
+    def _update_cache(self, feed, parsed):
+        self.seen[feed].update({'ids': {p.id for p in parsed.entries} or {}})
+        # Common HTTP caching
+        if parsed.get('etag', False):
+            self.seen[feed].update({'cache': {'etag': parsed.etag}})
+        if parsed.get('modified', False):
+            self.seen[feed].update({'cache': {'modified': parsed.modified}})
+
     def new_posts(self, feed):
         """Send new posts in feed"""
-        parsed_feed = feed_parse(feed)
-
+        self.plugin.log.debug('feed:     : "%s"', feed)
+        if self.seen.get(feed) and self.seen.get(feed).get('cache'):
+            parsed_feed = feed_parse(feed, **self.seen[feed]['cache'])
+        else:
+            if self.seen.get(feed):
+                self.plugin.log.debug('No cache headers set (etag/modified)')
+            parsed_feed = feed_parse(feed)
         # Cannot resolve address
         if 'status' not in parsed_feed:
             self.plugin.log.error('Error from "%s": %s.',
                                   feed, parsed_feed.bozo_exception.__repr__())
             return
-
+        # http caching
+        if parsed_feed.status == 304:
+            self.plugin.log.debug('Got 304 not modified')
+            return
         # unusual return http code
         if parsed_feed.status != 200:
             self.plugin.log.warning(
                 'Got code %(status)d from "%(href)s" (please update).',
                 parsed_feed)
             return
-
-        feed_updated = parsed_feed.feed.get('updated_parsed', None)
-
-        # Avoid looping over all posts if possible
-        if feed_updated and strtm_to_dtm(feed_updated) < self.last_check:
-            self.plugin.log.debug('updated   : %s', strtm_to_dtm(feed_updated))
-            self.plugin.log.debug('last check: %s', self.last_check)
+        if not self.seen.setdefault(feed):
+            # Fills with post id when first started (prevent from posting all
+            # entries at startup)
+            self.seen[feed] = {'cache': None}
+            self._update_cache(feed, parsed_feed)
             return
-
         title = '"%s":' % parsed_feed.feed.get('title', 'n/a')
         xtitle = '<strong>%s</strong>:' % html_escape(
             parsed_feed.feed.get('title', 'n/a'))
         text = [title]
         xhtml = [xtitle]
-        feed_id = parsed_feed.feed.get('id', feed)
-        if not self.seen.setdefault(feed_id):
-            # Fills with post id when first started (prevent from posting all
-            # entries at startup)
-            self.seen[feed_id] = {p.id for p in parsed_feed.entries}
-            return
 
         # Detecting new post
         entries = {p.id for p in parsed_feed.entries}
+        seen_ids = self.seen.get(feed).get('ids')
         new_entries = [p for p in parsed_feed.entries
-                       if p.id in entries - self.seen.get(feed_id)]
+                       if p.id in entries - seen_ids]
         for post in new_entries:
             self.plugin.log.info(post.title)
-
             body = '%(title)s %(link)s' % post
             text.append(body)
-
             xpost = {'title': html_escape(post.get('title', 'n/a'))}
             xpost['link'] = html_escape(post.get('link',))
             xbody = '<a href="{link}">{title}</a>'.format(**xpost)
             xhtml.append(xbody)
-        # Updating self.seen
-        self.seen[feed_id] = entries
+        # Updating self.seen, entries and cache headers
+        self._update_cache(feed, parsed_feed)
         if len(text) > 1:
             self.plugin.send(self.plugin.bot.room,
-                    {'mhtml':'<br />'.join(xhtml), 'mbody':'\n'.join(text)},
+                    {'mhtml': '<br />'.join(xhtml), 'mbody': '\n'.join(text)},
                     mtype='groupchat')
 
     def run(self):
@@ -116,7 +128,11 @@ class FeedMonitor(threading.Thread):
             for feed in self.feeds_list:
                 try:
                     self.new_posts(feed)
-                except Exception as err:
+                except ConnectionError as err:  # Non fatal exception
+                    self.plugin.log.error('connection error on %s: %s', feed, err)
+                except URLError as err:  # Non fatal exception
+                    self.plugin.log.error('error for "%s": %s', feed, err.reason)
+                except Exception as err:  # Unknown execption, killing thread anyway
                     self.plugin.log.error('feeds thread crashed: %s', err)
                     self.plugin.log.error(''.join(traceback.format_exc()))
                     self.thread_killed = True
@@ -128,22 +144,22 @@ class FeedMonitor(threading.Thread):
 
 
 class Feeds(Plugin):
+    """
+    .. note::
+      Feeds plugin depends on external module: **feedparser**
+    """
+
+    #: Time between feeds check
     TEMPO = 60
+    #: Default feeds to monitor
     FEEDS = [
-        # not working <http://bugs.debian.org/612274>
-        # 'http://www.debian.org/security/dsa',
-
-        # not working <http://bugs.debian.org/612274>
-        # 'http://www.debian.org/News/news',
-
-        # DPN in french
-       'http://www.debian.org/News/weekly/dwn.fr.rdf',
-
+        'https://www.debian.org/security/dsa',
+        'https://www.debian.org/News/news',
+        # Some packages
+        'https://tracker.debian.org/pkg/prosody/rss',
+        'https://tracker.debian.org/pkg/ejabberd/rss',
         # Misc
-       'http://rss.gmane.org/topics/excerpts/gmane.linux.debian.devel.announce',
-       'http://rss.gmane.org/gmane.linux.debian.user.security.announce',
-       'http://planet-fr.debian.net/users/rss20.xml',
-       'http://planet.debian.org/atom.xml',
+        'https://planet.debian.org/atom.xml',
         ]
 
     def __init__(self, bot):
@@ -157,17 +173,18 @@ class Feeds(Plugin):
 
     @botcmd
     def feeds(self, rcv, args):
-        """feeds monitors debian project related feeds.
-        !feeds : registred feeds list
-        !feeds last : last check time"""
+        """Monitors debian project related feeds.
+
+        * ``!feeds``      : registred feeds list
+        * ``!feeds last`` : last check time"""
         if 'last' in args:
-            self.reply(rcv, 'Last feeds check: %s' % self.th_mon.last_check)
+            date = '{:%Y-%m-%d %H:%M} (utc)'.format(self.th_mon.last_check)
+            self.reply(rcv, f'Last feeds check: {date}')
             return
-        html = ['<a href="{0}">{1}</a>'.format(html_escape(u),
-                                               html_escape(u[7:])
-                                               ) for u in Feeds.FEEDS]
-        msg = {
-                'mbody': 'Feeds:\n' + '\n'.join(Feeds.FEEDS),
-                'mhtml': 'Feeds:<br />' + '<br />'.join(html),
-                }
+        html = ['<a href="{0}">{1}</a>'.format(
+                                     html_escape(u),
+                                     html_escape('{1}{2}'.format(*urlparse(u)))
+                                     ) for u in Feeds.FEEDS]
+        msg = {'mbody': 'Feeds:\n' + '\n'.join(Feeds.FEEDS),
+               'mhtml': 'Feeds:<br />' + '<br />'.join(html)}
         self.reply(rcv, msg)