- **14.2.0** Telegram Benachrichtigungen enthalten Poster, wo verfügbar
- **14.1.3** Verhindere Incomplete-Read-Fehler (627)
- **14.1.3** Erkenne und verhindere Verarbeitung von Ombi-Anfragen ohne IMDb-ID
- **14.1.2** Detailverbesserungen im Web-Interface, insbesondere der Log-Darstellung
- **14.1.2** Überarbeitete interne Paketstruktur
- **14.1.1** Bugfix im Log bei nicht erfolgreichem Sponsors Helper
- **14.1.0** Refactoring im Frontend um mehr Bootstrap Standards zu nutzen (sowie Sass)
- **14.1.0** Erhöhte Stabilität in der Verbindung zum JDownloader
- **14.0.4** Die Wartezeit (vormals SF/FF-Intervall) gilt jetzt auch für SJ/DJ.
- Die Ban-Erkennung von SJ/DJ ist mittlerweile ähnlich streng wie bei SF/FF.
- Die Einstellung wurde von SF/FF in die allgemeinen Einstellungen verschoben.
- **14.0.4** Verbesserungen beim Setzen und Auslesen der Ombi/Overseerr-URL (622)
- **14.0.4** Bugfix in der Episodensuche per Ombi (622)
- **14.0.4** Bugfix in der Staffelsuche auf SF (622)
- **14.0.4** Bugfixes im Informationsabruf aus der IMDb (622)
- **14.0.3** Erhöhte Stabilität in der Verbindung zum JDownloader
- Docker-interne IP-Adressen werden bei der Verbindung ignoriert
- Für alle anderen IP-Adressen wurde der Timeout erhöht
- So kommt es zu weniger Timeouts und Verbindungsabbrüchen
- **14.0.3** Der Sponsors-Helper-Click'n'Load funktioniert wieder.
- **14.0.2** Lösche Paket
durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach
drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler,
siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler)
.
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.1.3
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.1.3** Verhindere Incomplete-Read-Fehler (627)
- **14.1.3** Erkenne und verhindere Verarbeitung von Ombi-Anfragen ohne IMDb-ID
- **14.1.2** Detailverbesserungen im Web-Interface, insbesondere der Log-Darstellung
- **14.1.2** Überarbeitete interne Paketstruktur
- **14.1.1** Bugfix im Log bei nicht erfolgreichem Sponsors Helper
- **14.1.0** Refactoring im Frontend um mehr Bootstrap Standards zu nutzen (sowie Sass)
- **14.1.0** Erhöhte Stabilität in der Verbindung zum JDownloader
- **14.0.4** Die Wartezeit (vormals SF/FF-Intervall) gilt jetzt auch für SJ/DJ.
- Die Ban-Erkennung von SJ/DJ ist mittlerweile ähnlich streng wie bei SF/FF.
- Die Einstellung wurde von SF/FF in die allgemeinen Einstellungen verschoben.
- **14.0.4** Verbesserungen beim Setzen und Auslesen der Ombi/Overseerr-URL (622)
- **14.0.4** Bugfix in der Episodensuche per Ombi (622)
- **14.0.4** Bugfix in der Staffelsuche auf SF (622)
- **14.0.4** Bugfixes im Informationsabruf aus der IMDb (622)
- **14.0.3** Erhöhte Stabilität in der Verbindung zum JDownloader
- Docker-interne IP-Adressen werden bei der Verbindung ignoriert
- Für alle anderen IP-Adressen wurde der Timeout erhöht
- So kommt es zu weniger Timeouts und Verbindungsabbrüchen
- **14.0.3** Der Sponsors-Helper-Click'n'Load funktioniert wieder.
- **14.0.2** Lösche Paket
durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach
drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler,
siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler)
.
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.1.2
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.1.2** Detailverbesserungen im Web-Interface, insbesondere der Log-Darstellung
- **14.1.2** Überarbeitete interne Paketstruktur
- **14.1.1** Bugfix im Log bei nicht erfolgreichem Sponsors Helper
- **14.1.0** Refactoring im Frontend um mehr Bootstrap Standards zu nutzen (sowie Sass)
- **14.1.0** Erhöhte Stabilität in der Verbindung zum JDownloader
- **14.0.4** Die Wartezeit (vormals SF/FF-Intervall) gilt jetzt auch für SJ/DJ.
- Die Ban-Erkennung von SJ/DJ ist mittlerweile ähnlich streng wie bei SF/FF.
- Die Einstellung wurde von SF/FF in die allgemeinen Einstellungen verschoben.
- **14.0.4** Verbesserungen beim Setzen und Auslesen der Ombi/Overseerr-URL (622)
- **14.0.4** Bugfix in der Episodensuche per Ombi (622)
- **14.0.4** Bugfix in der Staffelsuche auf SF (622)
- **14.0.4** Bugfixes im Informationsabruf aus der IMDb (622)
- **14.0.3** Erhöhte Stabilität in der Verbindung zum JDownloader
- Docker-interne IP-Adressen werden bei der Verbindung ignoriert
- Für alle anderen IP-Adressen wurde der Timeout erhöht
- So kommt es zu weniger Timeouts und Verbindungsabbrüchen
- **14.0.3** Der Sponsors-Helper-Click'n'Load funktioniert wieder.
- **14.0.2** Lösche Paket
durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach
drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler,
siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler)
.
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.1.1
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.1.1** Bugfix im Log bei nicht erfolgreichem Sponsors Helper
- **14.1.0** Refactoring im Frontend um mehr Bootstrap Standards zu nutzen (sowie Sass)
- **14.1.0** Erhöhte Stabilität in der Verbindung zum JDownloader
- **14.0.4** Die Wartezeit (vormals SF/FF-Intervall) gilt jetzt auch für SJ/DJ.
- Die Ban-Erkennung von SJ/DJ ist mittlerweile ähnlich streng wie bei SF/FF.
- Die Einstellung wurde von SF/FF in die allgemeinen Einstellungen verschoben.
- **14.0.4** Verbesserungen beim Setzen und Auslesen der Ombi/Overseerr-URL (622)
- **14.0.4** Bugfix in der Episodensuche per Ombi (622)
- **14.0.4** Bugfix in der Staffelsuche auf SF (622)
- **14.0.4** Bugfixes im Informationsabruf aus der IMDb (622)
- **14.0.3** Erhöhte Stabilität in der Verbindung zum JDownloader
- Docker-interne IP-Adressen werden bei der Verbindung ignoriert
- Für alle anderen IP-Adressen wurde der Timeout erhöht
- So kommt es zu weniger Timeouts und Verbindungsabbrüchen
- **14.0.3** Der Sponsors-Helper-Click'n'Load funktioniert wieder.
- **14.0.2** Lösche Paket durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler, siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler).
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.1.0
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.1.0** Refactoring im Frontend um mehr Bootstrap Standards zu nutzen (sowie Sass)
- **14.1.0** Erhöhte Stabilität in der Verbindung zum JDownloader
- **14.0.4** Die Wartezeit (vormals SF/FF-Intervall) gilt jetzt auch für SJ/DJ.
- Die Ban-Erkennung von SJ/DJ ist mittlerweile ähnlich streng wie bei SF/FF.
- Die Einstellung wurde von SF/FF in die allgemeinen Einstellungen verschoben.
- **14.0.4** Verbesserungen beim Setzen und Auslesen der Ombi/Overseerr-URL (622)
- **14.0.4** Bugfix in der Episodensuche per Ombi (622)
- **14.0.4** Bugfix in der Staffelsuche auf SF (622)
- **14.0.4** Bugfixes im Informationsabruf aus der IMDb (622)
- **14.0.3** Erhöhte Stabilität in der Verbindung zum JDownloader
- Docker-interne IP-Adressen werden bei der Verbindung ignoriert
- Für alle anderen IP-Adressen wurde der Timeout erhöht
- So kommt es zu weniger Timeouts und Verbindungsabbrüchen
- **14.0.3** Der Sponsors-Helper-Click'n'Load funktioniert wieder.
- **14.0.2** Lösche Paket durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler, siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler).
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.0.4
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.0.4** Die Wartezeit (vormals SF/FF-Intervall) gilt jetzt auch für SJ/DJ.
- Die Ban-Erkennung von SJ/DJ ist mittlerweile ähnlich streng wie bei SF/FF.
- Die Einstellung wurde von SF/FF in die allgemeinen Einstellungen verschoben.
- **14.0.4** Verbesserungen beim Setzen und Auslesen der Ombi/Overseerr-URL (622)
- **14.0.4** Bugfix in der Episodensuche per Ombi (622)
- **14.0.4** Bugfix in der Staffelsuche auf SF (622)
- **14.0.4** Bugfixes im Informationsabruf aus der IMDb (622)
- **14.0.3** Erhöhte Stabilität in der Verbindung zum JDownloader
- Docker-interne IP-Adressen werden bei der Verbindung ignoriert
- Für alle anderen IP-Adressen wurde der Timeout erhöht
- So kommt es zu weniger Timeouts und Verbindungsabbrüchen
- **14.0.3** Der Sponsors-Helper-Click'n'Load funktioniert wieder.
- **14.0.2** Lösche Paket durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler, siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler).
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.0.3
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.0.3** Erhöhte Stabilität in der Verbindung zum JDownloader
- Docker-interne IP-Adressen werden bei der Verbindung ignoriert
- Für alle anderen IP-Adressen wurde der Timeout erhöht
- So kommt es zu weniger Timeouts und Verbindungsabbrüchen
- **14.0.3** Der Sponsors-Helper-Click'n'Load funktioniert wieder.
- **14.0.2** Lösche Paket durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler, siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler).
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.0.2
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.0.2** Lösche Paket durch [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) nach drei Fehlversuchen.
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.2.0** Chrome-Update auf Version 101
- **5.2.0** Der Helper funktioniert jetzt in Kombination mit aktivem Benutzernamen/Passwort im FeedCrawler, siehe [Wiki](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#passwortgesch%C3%BCtzter-feedcrawler).
- **5.1.0** Das interne Webinterface nutzt ab sofort [petite-vue](https://github.com/vuejs/petite-vue).
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
v.14.0.1
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **14.0.1** Bugfixes (614)
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
- **13.2.0** (Re-)Integration von DD
- Die neue Suche kommt ohne feedparser als Dependency aus.
- DD-Feeds werden in den Suchlisten konfiguriert.
- Damit wird das ddtofeedcrawler-Image vom Docker-Hub entfernt.
- **13.2.0** Wechsel zu besserer Tooltip-Dependency [vue-tippy](https://vue-tippy.netlify.app/)
- **13.1.0** Integration von [Overseerr](https://overseerr.dev/) als bessere Alternative zu [Ombi](https://ombi.io/)
- Ombi ist über die Jahre imperformant und unzuverlässig geworden und steht ab sofort nicht mehr im Fokus dieses
Projektes.
- Overseerr bietet eine deutlich zuverlässigere und schnellere Basis für Medienserver-Anfragen
- Ein Wechsel von Ombi zu Overseerr wird empfohlen.
- **13.0.8** Bevorzuge SF-Web-Suche in Ombi-Anbindung
- **13.0.8** Fehlerbehebung in den Web-Suchen
- **13.0.7** Integration der SF-Web-Suche
- **13.0.7** Fehlerbehebung in der SF-Feed-Suche
- **13.0.7** Verbesserte Erkennung von Blockaden auf SJ/DJ
- **13.0.6** Dependency Flask-CORS zugunsten eigener Implementierung entfernt
- **13.0.6** Dependency Rapidfuzz zugunsten eigener Implementierung entfernt
- **13.0.6** Detailverbesserungen im Web-Interface (RegEx-Hilfe/Seitenstatus)
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Web-Suche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Web-Suche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Web-Suche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung
im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.14.0.0
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
Bekannte Fehler 614
diff
- Nutzt dieses Sammelticket für Probleme in der neuen Version. Ergänzt bitte Details und wechselt bis auf Weiteres zurück zu Version 13.2.0 -
- **14.0.0** Die Overseerr-Suche für Serien geht jetzt Staffelweise vor.
- **14.0.0** Das Passwort für das Web-Interface muss neu vergeben werden, sofern zuvor eines genutzt wurde.
- **14.0.0** Entfernung der folgenden Dependencies:
- docopt (zugunsten der Python-internen argparse-Bibliothek)
- flask (zugunsten der weniger komplexen bottle-Bibliothek)
- passlib (zugunsten der sichereren scrypt-Methode der pycryptodomex-Bibliothek)
- python-dateutil (zugunsten einer eigenen Implementierung auf Basis der Python-internen datetime-Bibliothek)
- requests (zugunsten einer eigenen Implementierung auf Basis der Python-internen urllib-Bibliothek)
- simplejson (zugunsten der Python-internen json-Bibliothek)
- waitress (zugunsten einer eigenen Implementierung auf Basis der Python-internen wsgiref-Bibliothek)
- **13.2.0** (Re-)Integration von DD
- Die neue Suche kommt ohne feedparser als Dependency aus.
- DD-Feeds werden in den Suchlisten konfiguriert.
- Damit wird das ddtofeedcrawler-Image vom Docker-Hub entfernt.
- **13.2.0** Wechsel zu besserer Tooltip-Dependency [vue-tippy](https://vue-tippy.netlify.app/)
- **13.1.0** Integration von [Overseerr](https://overseerr.dev/) als bessere Alternative zu [Ombi](https://ombi.io/)
- Ombi ist über die Jahre imperformant und unzuverlässig geworden und steht ab sofort nicht mehr im Fokus dieses
Projektes.
- Overseerr bietet eine deutlich zuverlässigere und schnellere Basis für Medienserver-Anfragen
- Ein Wechsel von Ombi zu Overseerr wird empfohlen.
- **13.0.8** Bevorzuge SF-Web-Suche in Ombi-Anbindung
- **13.0.8** Fehlerbehebung in den Web-Suchen
- **13.0.7** Integration der SF-Web-Suche
- **13.0.7** Fehlerbehebung in der SF-Feed-Suche
- **13.0.7** Verbesserte Erkennung von Blockaden auf SJ/DJ
- **13.0.6** Dependency Flask-CORS zugunsten eigener Implementierung entfernt
- **13.0.6** Dependency Rapidfuzz zugunsten eigener Implementierung entfernt
- **13.0.6** Detailverbesserungen im Web-Interface (RegEx-Hilfe/Seitenstatus)
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Web-Suche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Web-Suche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Web-Suche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung
im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.2.0
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.2.0** (Re-)Integration von DD
- Die neue Suche kommt ohne feedparser als Dependency aus.
- DD-Feeds werden in den Suchlisten konfiguriert.
- Damit wird das ddtofeedcrawler-Image vom Docker-Hub entfernt.
- **13.2.0** Wechsel zu besserer Tooltip-Dependency [vue-tippy](https://vue-tippy.netlify.app/)
- **13.1.0** Integration von [Overseerr](https://overseerr.dev/) als bessere Alternative zu [Ombi](https://ombi.io/)
- Ombi ist über die Jahre imperformant und unzuverlässig geworden und steht ab sofort nicht mehr im Fokus dieses Projektes.
- Overseerr bietet eine deutlich zuverlässigere und schnellere Basis für Medienserver-Anfragen
- Ein Wechsel von Ombi zu Overseerr wird empfohlen.
- **13.0.8** Bevorzuge SF-Web-Suche in Ombi-Anbindung
- **13.0.8** Fehlerbehebung in den Web-Suchen
- **13.0.7** Integration der SF-Web-Suche
- **13.0.7** Fehlerbehebung in der SF-Feed-Suche
- **13.0.7** Verbesserte Erkennung von Blockaden auf SJ/DJ
- **13.0.6** Dependency Flask-CORS zugunsten eigener Implementierung entfernt
- **13.0.6** Dependency Rapidfuzz zugunsten eigener Implementierung entfernt
- **13.0.6** Detailverbesserungen im Web-Interface (RegEx-Hilfe/Seitenstatus)
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Web-Suche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Web-Suche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Web-Suche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.1.0** AntiGateHandler Web-Interface zu [petite-vue](https://github.com/vuejs/petite-vue) migriert
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.1.0
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.1.0** Integration von [Overseerr](https://overseerr.dev/) als bessere Alternative zu [Ombi](https://ombi.io/)
- Ombi ist über die Jahre imperformant und unzuverlässig geworden und steht ab sofort nicht mehr im Fokus dieses Projektes.
- Overseerr bietet eine deutlich zuverlässigere und schnellere Basis für Medienserver-Anfragen
- Ein Wechsel von Ombi zu Overseerr wird empfohlen.
- **13.0.8** Bevorzuge SF-Web-Suche in Ombi-Anbindung
- **13.0.8** Fehlerbehebung in den Web-Suchen
- **13.0.7** Integration der SF-Web-Suche
- **13.0.7** Fehlerbehebung in der SF-Feed-Suche
- **13.0.7** Verbesserte Erkennung von Blockaden auf SJ/DJ
- **13.0.6** Dependency Flask-CORS zugunsten eigener Implementierung entfernt
- **13.0.6** Dependency Rapidfuzz zugunsten eigener Implementierung entfernt
- **13.0.6** Detailverbesserungen im Web-Interface (RegEx-Hilfe/Seitenstatus)
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Web-Suche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Web-Suche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Web-Suche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.8
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.8** Bevorzuge SF-Web-Suche in Ombi-Anbindung
- **13.0.8** Fehlerbehebung in den Web-Suchen
- **13.0.7** Integration der SF-Web-Suche
- **13.0.7** Fehlerbehebung in der SF-Feed-Suche
- **13.0.7** Verbesserte Erkennung von Blockaden auf SJ/DJ
- **13.0.6** Dependency Flask-CORS zugunsten eigener Implementierung entfernt
- **13.0.6** Dependency Rapidfuzz zugunsten eigener Implementierung entfernt
- **13.0.6** Detailverbesserungen im Web-Interface (RegEx-Hilfe/Seitenstatus)
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Web-Suche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Web-Suche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Web-Suche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **5.0.0** Basiert ab sofort auf eigenem Basis-Image (Ubuntu 22.04 und Google Chrome 100)
- Die Funktionalität entspricht der Vorversion inklusive Zugriff per VNC/Web-Browser.
- Die Parameter `--shm-size 2g` und `--restart unless-stopped` sind nicht mehr notwendig.
- Mit dem `--privileged`-Parameter kann ab sofort die `--no-sandbox`-Warnung in Chrome deaktiviert werden.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.7
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.7** Integration der SF-Web-Suche
- **13.0.7** Fehlerbehebung in der SF-Feed-Suche
- **13.0.7** Verbesserte Erkennung von Blockaden auf SJ/DJ
- **13.0.6** Dependency Flask-CORS zugunsten eigener Implementierung entfernt
- **13.0.6** Dependency Rapidfuzz zugunsten eigener Implementierung entfernt
- **13.0.6** Detailverbesserungen im Web-Interface (RegEx-Hilfe/Seitenstatus)
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Web-Suche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Web-Suche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Web-Suche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.6
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.6** Dependency Flask-CORS zugunsten eigener Implementierung entfernt
- **13.0.6** Dependency Rapidfuzz zugunsten eigener Implementierung entfernt
- **13.0.6** Detailverbesserungen im Web-Interface (RegEx-Hilfe/Seitenstatus)
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Websuche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Websuche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Websuche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.5
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.5** Fehlerbehebung im Laden der Suchlisten
- **13.0.5** RegEx-Hilfe überarbeitet
- **13.0.5** Verbesserungen in der Websuche
- **13.0.5** Fehlgeschlagene Downloads können jetzt zurückgesetzt werden
- **13.0.4** Die Websuche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Websuche
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.4
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.4** Die Websuche zeigt die Ergebnisse von schnell durchsuchbaren Seiten schon an,
während langsame Seiten noch laden.
- **13.0.4** Ladehinweis für Suchlisten/Einstellungen ergänzt
- **13.0.4** Fehlerbehebungen in der SJ-Websuche-Anbindung
- **13.0.4** Weitere Fehlerbehebungen in der Ombi-Anbindung (600)
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.3
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.3** Fehlerbehebung im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper),
wenn ein Prefix für das Web-Interface genutzt wird.
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.2
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.2** Fehlerbehebung in der Ombi-Anbindung 600 (Danke jankete)
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.1
Installation und Update:
`pip install -U feedcrawler`
---
Changelog FeedCrawler:
- **13.0.1** Detailverbesserungen
- Verhindere vertikales Scrollen im Log
- Redundanzen im Vue-Router entfernt
- FF-Zeitstempel in der Hilfe werden menschenlesbar ausgegeben.
- Links für Tampermonkey-Scripte korrigiert
- Affiliate-Links korrigiert
- Option zum geschlossen halten des My JDownloader Tabs aus Performancegründen entfernt
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht
mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller
als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische
Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das
Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der
manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden
sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt
daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer
Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
- **13.0.0** Das offizielle [Docker-Image](https://registry.hub.docker.com/r/rix1337/docker-feedcrawler) nutzt jetzt
Python 3.9
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
betreffen, werden erst nach dessen Update aktiv.
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im
AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten
AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask
für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask
nicht zur Verfügung steht).
v.13.0.0
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **13.0.0** Migration des AngularJS Frontends zu [Vue.js 3](https://vuejs.org/)
- AngularJS ist seit Ende 2021 [End-of-Life](https://docs.angularjs.org/misc/version-support-status) und wird nicht mehr aktiv gepflegt.
- Vue.js ist ein modernes und aktiv gepflegtes Framework für Single-Page-Applications.
- Vue.js setzt in Version 3 auf den pfeilschnellen `vite`-Compiler, der für `dev` und `build` wesentlich schneller als `webpack` ist.
- Danke an alle [Sponsoren](https://github.com/sponsors/rix1337/)! Ohne eure Unterstützung wäre die technische Pflege des FeedCrawlers nicht möglich.
- Der Wechsel der Frameworks war nicht zwingend notwendig, macht den FeedCrawler jedoch zukunftssicherer und das Frontend spürbar schneller.
- Bei Installation per Docker, pip oder Windows Exe ist nichts weiter zu tun. Das Frontend muss jedoch vor der manuellen Installation per setup.py bereits per "npm run build" im Ordner `feedcrawler/web` kompiliert worden sein.
- Die Migration umfasst mehr als [5000 Zeilen Code](https://github.com/rix1337/FeedCrawler/pull/594/files). Nutzt daher im Fehlerfall ein aussagekräftiges [Issue](https://github.com/rix1337/FeedCrawler/issues/new), statt einer Wortmeldung im Gitter.
- **13.0.0** Fix CVE-2022-24761 (HTTP Request Smuggling in waitress)
- **13.0.0** PL entfernt
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.4.0
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.4.0** Verbesserungen in der "Click'n'Load-Automatik" (Funktion für manuelles CAPTCHA-Lösen)
- **12.4.0** Verbesserungen im FC-Script für "Sponsors-Helper Click'n'Load"
- **12.3.5** Bugfix in ContentAll-Suche
- **12.3.4** Erkenne, wenn manuelle Entschlüsselung von PL-Links notwendig ist
- **12.3.3** PL-Websuche integriert
- **12.3.3** Bugfix in FX-Websuche
- **12.3.2** Bugfix in Passwortweitergabe der HEVC/DL-Suche
- **12.3.2** Bugfix im Zerstören von Flaresolverr-Sessions
- **12.3.1** PL-Seitenstatus in Webinterface integriert
- **12.3.1** Prototypischer Aufbau der notwendigen Ergebnisse der Feedsuchen dokumentiert.
- **12.3.0** Verwende html5lib statt lxml in BeautifulSoup
- **12.3.0** PL-Feedsuche integriert
- **12.3.0** Modulstruktur überarbeitet und Zweck der Einzelmodule dokumentiert.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.3.5
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.3.5** Bugfix in ContentAll-Suche
- **12.3.4** Erkenne, wenn manuelle Entschlüsselung von PL-Links notwendig ist
- **12.3.3** PL-Websuche integriert
- **12.3.3** Bugfix in FX-Websuche
- **12.3.2** Bugfix in Passwortweitergabe der HEVC/DL-Suche
- **12.3.2** Bugfix im Zerstören von Flaresolverr-Sessions
- **12.3.1** PL-Seitenstatus in Webinterface integriert
- **12.3.1** Prototypischer Aufbau der notwendigen Ergebnisse der Feedsuchen dokumentiert.
- **12.3.0** Verwende html5lib statt lxml in BeautifulSoup
- **12.3.0** PL-Feedsuche integriert
- **12.3.0** Modulstruktur überarbeitet und Zweck der Einzelmodule dokumentiert.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.3.4
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.3.4** Erkenne, wenn manuelle Entschlüsselung von PL-Links notwendig ist
- **12.3.3** PL-Websuche integriert
- **12.3.3** Bugfix in FX-Websuche
- **12.3.2** Bugfix in Passwortweitergabe der HEVC/DL-Suche
- **12.3.2** Bugfix im Zerstören von Flaresolverr-Sessions
- **12.3.1** PL-Seitenstatus in Webinterface integriert
- **12.3.1** Prototypischer Aufbau der notwendigen Ergebnisse der Feedsuchen dokumentiert.
- **12.3.0** Verwende html5lib statt lxml in BeautifulSoup
- **12.3.0** PL-Feedsuche integriert
- **12.3.0** Modulstruktur überarbeitet und Zweck der Einzelmodule dokumentiert.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.3** Entschlüssele PL-Links automatisch per Click'n'Load oder DLC, wenn der FeedCrawler daran gescheitert ist.
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.3.3
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.3.3** PL-Websuche integriert
- **12.3.3** Bugfix in FX-Websuche
- **12.3.2** Bugfix in Passwortweitergabe der HEVC/DL-Suche
- **12.3.2** Bugfix im Zerstören von Flaresolverr-Sessions
- **12.3.1** PL-Seitenstatus in Webinterface integriert
- **12.3.1** Prototypischer Aufbau der notwendigen Ergebnisse der Feedsuchen dokumentiert.
- **12.3.0** Verwende html5lib statt lxml in BeautifulSoup
- **12.3.0** PL-Feedsuche integriert
- **12.3.0** Modulstruktur überarbeitet und Zweck der Einzelmodule dokumentiert.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.3.2
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.3.2** Bugfix in Passwortweitergabe der HEVC/DL-Suche
- **12.3.2** Bugfix im Zerstören von Flaresolverr-Sessions
- **12.3.1** PL-Seitenstatus in Webinterface integriert
- **12.3.1** Prototypischer Aufbau der notwendigen Ergebnisse der Feedsuchen dokumentiert.
- **12.3.0** Verwende html5lib statt lxml in BeautifulSoup
- **12.3.0** PL-Feedsuche integriert
- **12.3.0** Modulstruktur überarbeitet und Zweck der Einzelmodule dokumentiert.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.3.1
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.3.1** PL-Seitenstatus in Webinterface integriert
- **12.3.1** Prototypischer Aufbau der notwendigen Ergebnisse der Feedsuchen dokumentiert.
- **12.3.0** Verwende html5lib statt lxml in BeautifulSoup
- **12.3.0** PL-Feedsuche integriert
- **12.3.0** Modulstruktur überarbeitet und Zweck der Einzelmodule dokumentiert.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.3.0
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.3.0** PL-Feedsuche integriert
- **12.3.0** Modulstruktur überarbeitet und Zweck der Einzelmodule dokumentiert.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.2.11
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.11** Löse SJ und DJ Links vor FC und maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.11** Bugfix im Speichern des Passwortes
- **12.2.11** Folge Upstream-Ubenennung von IMDbPy auf Cinemagoer
- **12.2.10** Benachrichtigung, wenn ein Titel aus der Suchliste für Filme entfernt wurde. Danke mx-hero
- **12.2.9** Fix 579 - Danke jankete
- **12.2.8** Verhindere das Speichern im Web-Interface, wenn Minima/Maxima gerissen wurden.
- **12.2.8** Interval und Suchtiefe auf SF/FF sind im Web-Interface konfigurierbar.
- **12.2.7** Prüfe die Erreichbarkeit von SF/FF ebenfalls erst nach dem Mindest-Intervall (verhindert Bans).
- **12.2.7** Senke Suchintervall bei SF/FF-Feedsuchen wieder auf 6 Stunden.
- **12.2.6** Erhöhe Suchintervall bei SF/FF-Feedsuchen.
- **12.2.5** Verbesserte Icon-Darstellung der Seitenstatus (OK/Gesperrt/Wartet) im Hilfe-Bereich.
- **12.2.5** Löse SJ/DJ und FC Links vor maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.5** Demaskiere SF/FF-Links vor Weitergabe an den [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) um Sperren vorzubeugen.
- **12.2.5** Übergib auch bei BY/NK die FC-Links nicht dem JDownloader.
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.2.10
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.10** Benachrichtigung, wenn ein Titel aus der Suchliste für Filme entfernt wurde. Danke mx-hero
- **12.2.9** Fix 579 - Danke jankete
- **12.2.8** Verhindere das Speichern im Web-Interface, wenn Minima/Maxima gerissen wurden.
- **12.2.8** Interval und Suchtiefe auf SF/FF sind im Web-Interface konfigurierbar.
- **12.2.7** Prüfe die Erreichbarkeit von SF/FF ebenfalls erst nach dem Mindest-Intervall (verhindert Bans).
- **12.2.7** Senke Suchintervall bei SF/FF-Feedsuchen wieder auf 6 Stunden.
- **12.2.6** Erhöhe Suchintervall bei SF/FF-Feedsuchen.
- **12.2.5** Verbesserte Icon-Darstellung der Seitenstatus (OK/Gesperrt/Wartet) im Hilfe-Bereich.
- **12.2.5** Löse SJ/DJ und FC Links vor maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.5** Demaskiere SF/FF-Links vor Weitergabe an den [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) um Sperren vorzubeugen.
- **12.2.5** Übergib auch bei BY/NK die FC-Links nicht dem JDownloader.
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **4.0.2** Der AntiGateHandler entschlüsselt nun die DLC-Datei, sofern der Click'n'Load-Button fehlt.
- **4.0.1** Der lokale HTTP-Proxy läuft ab sofort dauerhaft.
- Die Zugangsdaten werden weiterhin bei jedem Start zufallsgeneriert.
- Der Proxy blockiert alle Domains außer denen, die für das Lösen von CutCaptchas notwendig sind.
- **4.0.1** Es wird kein Timeout beim Lösen der CutCaptchas mehr forciert.
- **4.0.0** Click'n'Load wird nicht mehr im Chrome gelöst (da langsam und fehleranfällig), sondern direkt im AntiGateHandler. Danke an das JDownloader-Team für die Umsetzungsidee!
- **4.0.0** Prüfe anhand des Links, ob ein Passwort für den AntiGateTask gesetzt werden muss, um den korrekten AntiGateTask zu starten.
- **4.0.0** Prüfe anhand des Links, ob überhaupt ein Captcha gelöst werden muss. Dies verhindert, dass ein AntiGateTask für nicht geschützte Links erzeugt wird.
- **4.0.0** Der lokale HTTP-Proxy wird separat vom AntiGateHandler gestartet (verhindert, dass der Proxy im AntiGateTask nicht zur Verfügung steht).
v.12.2.9
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.9** Fix 579 - Danke jankete
- **12.2.8** Verhindere das Speichern im Web-Interface, wenn Minima/Maxima gerissen wurden.
- **12.2.8** Interval und Suchtiefe auf SF/FF sind im Web-Interface konfigurierbar.
- **12.2.7** Prüfe die Erreichbarkeit von SF/FF ebenfalls erst nach dem Mindest-Intervall (verhindert Bans).
- **12.2.7** Senke Suchintervall bei SF/FF-Feedsuchen wieder auf 6 Stunden.
- **12.2.6** Erhöhe Suchintervall bei SF/FF-Feedsuchen.
- **12.2.5** Verbesserte Icon-Darstellung der Seitenstatus (OK/Gesperrt/Wartet) im Hilfe-Bereich.
- **12.2.5** Löse SJ/DJ und FC Links vor maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.5** Demaskiere SF/FF-Links vor Weitergabe an den [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) um Sperren vorzubeugen.
- **12.2.5** Übergib auch bei BY/NK die FC-Links nicht dem JDownloader.
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.7** Pausiere Entschlüsselung von SF/FF-Links bis zum Ablauf des 6-stündigen Mindest-Intervalls, wenn eine Blockade erkannt wurde.
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.8
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.8** Verhindere das Speichern im Web-Interface, wenn Minima/Maxima gerissen wurden.
- **12.2.8** Interval und Suchtiefe auf SF/FF sind im Web-Interface konfigurierbar.
- **12.2.7** Prüfe die Erreichbarkeit von SF/FF ebenfalls erst nach dem Mindest-Intervall (verhindert Bans).
- **12.2.7** Senke Suchintervall bei SF/FF-Feedsuchen wieder auf 6 Stunden.
- **12.2.6** Erhöhe Suchintervall bei SF/FF-Feedsuchen.
- **12.2.5** Verbesserte Icon-Darstellung der Seitenstatus (OK/Gesperrt/Wartet) im Hilfe-Bereich.
- **12.2.5** Löse SJ/DJ und FC Links vor maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.5** Demaskiere SF/FF-Links vor Weitergabe an den [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) um Sperren vorzubeugen.
- **12.2.5** Übergib auch bei BY/NK die FC-Links nicht dem JDownloader.
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.7** Pausiere Entschlüsselung von SF/FF-Links bis zum Ablauf des 6-stündigen Mindest-Intervalls, wenn eine Blockade erkannt wurde.
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.7
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.7** Prüfe die Erreichbarkeit von SF/FF ebenfalls erst nach dem Mindest-Intervall (verhindert Bans).
- **12.2.7** Senke Suchintervall bei SF/FF-Feedsuchen wieder auf 6 Stunden.
- **12.2.6** Erhöhe Suchintervall bei SF/FF-Feedsuchen.
- **12.2.5** Verbesserte Icon-Darstellung der Seitenstatus (OK/Gesperrt/Wartet) im Hilfe-Bereich.
- **12.2.5** Löse SJ/DJ und FC Links vor maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.5** Demaskiere SF/FF-Links vor Weitergabe an den [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) um Sperren vorzubeugen.
- **12.2.5** Übergib auch bei BY/NK die FC-Links nicht dem JDownloader.
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.7** Pausiere Entschlüsselung von SF/FF-Links bis zum Ablauf des 6-stündigen Mindest-Intervalls, wenn eine Blockade erkannt wurde.
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.6
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.6** Erhöhe Suchintervall bei SF/FF-Feedsuchen.
- **12.2.5** Verbesserte Icon-Darstellung der Seitenstatus (OK/Gesperrt/Wartet) im Hilfe-Bereich.
- **12.2.5** Löse SJ/DJ und FC Links vor maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.5** Demaskiere SF/FF-Links vor Weitergabe an den [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) um Sperren vorzubeugen.
- **12.2.5** Übergib auch bei BY/NK die FC-Links nicht dem JDownloader.
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.7** Pausiere Entschlüsselung von SF/FF-Links bis zum Ablauf des 6-stündigen Mindest-Intervalls, wenn eine Blockade erkannt wurde.
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.5
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.5** Verbesserte Icon-Darstellung der Seitenstatus (OK/Gesperrt/Wartet) im Hilfe-Bereich.
- **12.2.5** Löse SJ/DJ und FC Links vor maskierten SF/FF und WW Links im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.5** Demaskiere SF/FF-Links vor Weitergabe an den [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) um Sperren vorzubeugen.
- **12.2.5** Übergib auch bei BY/NK die FC-Links nicht dem JDownloader.
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper).
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.7** Pausiere Entschlüsselung von SF/FF-Links bis zum Ablauf des 6-stündigen Mindest-Intervalls, wenn eine Blockade erkannt wurde.
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.4
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.4** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.7** Pausiere Entschlüsselung von SF/FF-Links bis zum Ablauf des 6-stündigen Mindest-Intervalls, wenn eine Blockade erkannt wurde.
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.3
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.3** Beachte das Mindest-Intervall für SF/FF-Feedsuchen auch im [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper)
- **12.2.3** Speichere das Mindest-Intervall für SF/FF-Feedsuchen in der Datenbank um dieses auch bei Neustarts des FeedCrawlers korrekt zu beachten.
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.7** Pausiere Entschlüsselung von SF/FF-Links bis zum Ablauf des 6-stündigen Mindest-Intervalls, wenn eine Blockade erkannt wurde.
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.2
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.2** Verhindere unerwünschte Ergebnisse in HW-Websuche
- **12.2.2** Erzwinge 6 Stunden Mindest-Intervall für SF/FF-Feedsuchen
- **12.2.2** Bugfix in FF-Feedsuche bei fehlendem IMDb-Link
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.1
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.1** Fix in durch FF hinzugefügten Links
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei SF, FF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.2.0
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.2.0** FF in die Feed-Suche integriert 🧑🏻🎄🎄🎅🏻 - Frohe Weihnachten!
- **12.2.0** SF und FF durchsuchen nur die letzten beiden Tage um die Ban-Wahrscheinlichkeit zu senken.
- **12.1.2** Nutze ausschließlich FlareSolverr bei WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.1.2
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.1.1** Nutze ausschließlich FlareSolverr bei SF und WW, sofern dieser eingerichtet ist.
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.1.1
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.1.1** HW wieder in die Web-Suche integriert
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.6** Ab sofort werden FC-Links auch von HW korrekt entschlüsselt
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.1.0
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.1.0** HW wieder in die Feed-Suche integriert
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.4** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.0.5
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.0.5** "Neu laden" auf Helper-Seite funktioniert wieder.
- **12.0.4** Fix beim Bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.5** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-CAPTCHA eine deutsche IP-Adresse voraussetzen, wird die eigene IP-Adresse automatisch extern freigegeben.
- Zu diesem Zweck wird für den kurzen Zeitraum der CAPTCHA-Lösung ein HTTP-Proxy im Helper gestartet.
- Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben (IPv4/TCP) werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar.
- Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem CAPTCHA-Löser über Anti-Captcha.com kurzfristig freigegeben,
sodass das gelöste CAPTCHA lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Genutzt wird wie bisher der [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 CAPTCHAs pro Stunde auf diesem Weg entschlüsselt um einen Ban der eigenen IP-Adresse zu vermeiden.
v.12.0.4
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog FeedCrawler:
- **12.0.4** Fix beim bereitstellen von WW-Links
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Unterstützung für [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper) Version 3.0.0
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
Changelog [FeedCrawler Sponsors Helper](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper):
- **3.2.0** Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt:
- Da FC-Captchas eine deutsche IP-Adresse voraussetzen, wird für den kurzen Zeitraum der Captcha-Lösung ein HTTP-Proxy im Helper gestartet. Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar. Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem Captcha-Löser über Anti-Captcha.com kurzfristig freigegeben, sodass das gelöste Captcha lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Zweite Voraussetzung ist wie bisher ein [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 Links pro Stunde auf diesem Weg entschlüsselt.
v.12.0.3
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog:
- **12.0.3** Der Helper erkennt, wenn ein Link erfolglos entschlüsselt wurde und versucht es erneut.
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Update des [FeedCrawler Sponsors Helpers](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) auf Version 3.2.0
- Ab sofort werden FC-Links inklusive CutCaptcha durch den AntiGateHandler automatisch entschlüsselt
- Da FC-Captchas eine deutsche IP-Adresse voraussetzen, wird für den kurzen Zeitraum der Captcha-Lösung ein HTTP-Proxy im Helper gestartet. Dieser muss extern per IPv4/TCP erreichbar sein (Port 33333 ist dabei fix, IPv6 ist nicht nutzbar):
- Der HTTP-Proxy wird ausschließlich während des Lösungszeitraums gestartet, dazwischen ist Port 33333 inaktiv.
- Port 33333 muss per Portfreigabe im Router an den Docker-Host weitergegeben werden.
- Der HTTP-Proxy ist durch zufallsgenerierte Zugangsdaten ausschließlich für den einzelnen Lösungsvorgang erreichbar. Die Zugangsdaten werden zu Beginn jedes Lösungsvorganges automatisch angelegt und sind danach nicht mehr gültig.
- Die eigene IP-Adresse wird dabei dem Captcha-Löser über Anti-Captcha.com kurzfristig freigegeben, sodass das gelöste Captcha lokal für die Entschlüsselung verwendet werden kann.
- Ein kostenpflichtiger HTTP-Proxy ist nicht notwendig.
- Zweite Voraussetzung ist wie bisher ein [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 Links pro Stunde auf diesem Weg entschlüsselt.
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
v.12.0.2
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog:
- **12.0.2** Fix 557 - Danke DKeppi
- **12.0.2** Fehler bei IMDB-Eintrag ohne Jahreszahl behoben
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Update des [FeedCrawler Sponsors Helpers](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) auf Version 3.0.2
- Ab sofort werden FC-Links durch den AntiGateHandler automatisch entschlüsselt
- Voraussetzung dafür ist ein [privater deutscher HTTP-Proxy (kostet ca. 2 € pro Monat)](https://www.highproxies.com/billing/aff.php?aff=1278)
- Zweite Voraussetzung ist wie bisher ein [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 Links pro Stunde auf diesem Weg entschlüsselt.
- Für die Konfiguration des HTTP-Proxies sind diese [Parameter](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#weitere-parameter) notwendig.
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
v.12.0.1
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog:
- **12.0.1** Fix beim Erzeugen neuer FlareSolverr-Sessions für den Aufruf mit Proxy
- **12.0.0** Update des [FeedCrawler Sponsors Helpers](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) auf Version 3.1.2
- Ab sofort werden FC-Links durch den AntiGateHandler automatisch entschlüsselt
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 Links pro Stunde auf diesem Weg entschlüsselt.
- Für die Konfiguration des HTTP-Proxies ist eine [externe Freigabe des TCP-Ports 33333 notwendig](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#cutcaptchas-automatisiert-l%C3%B6sen)
- Zweite Voraussetzung ist wie bisher ein [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,3-0,5 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
v.12.0.0
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog:
- **12.0.0** Update des [FeedCrawler Sponsors Helpers](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) auf Version 3.0.2
- Ab sofort werden FC-Links durch den AntiGateHandler automatisch entschlüsselt
- Voraussetzung dafür ist ein [privater deutscher HTTP-Proxy (kostet ca. 2 € pro Monat)](https://www.highproxies.com/billing/aff.php?aff=1278)
- Zweite Voraussetzung ist wie bisher ein [Anti-Captcha-API-Key (das Entschlüsseln kostet ca. 0,5-1 ct pro CAPTCHA)](http://getcaptchasolution.com/zuoo67f5cq)
- Das Lösen der Captchas und die Implementierung im Helpers ist brandneu - Fehler sind also erwartbar.
- Es werden maximal 10 Links pro Stunde auf diesem Weg entschlüsselt.
- Für die Konfiguration des HTTP-Proxies sind diese [Parameter](https://github.com/rix1337/FeedCrawler/wiki/5.-FeedCrawler-Sponsors-Helper#weitere-parameter) notwendig.
- **12.0.0** Demaskiere FX-Links vor dem Download
- **12.0.0** Erzeuge neue FlareSolverr-Session für den Aufruf mit Proxy
v.11.1.7
Installation und Update:
`pip install -U feedcrawler`
- Leert unbedingt nach jedem Update den Browser-Cache!
- Punkte, die den [FeedCrawler Sponsors Helper](https://github.com/rix1337/RSScrawler/wiki/5.-FeedCrawler-Sponsors-Helper) betreffen, werden erst nach dessen Update aktiv.
---
Changelog:
- **11.1.7** Fix: Bug in FX-Suche