Personal Link -Datenbank, Link -Aggregator mit RSS -Funktionalität.
Anwendungsfälle
- RSS -Leser
- Lesezeichenmanager
- YouTube Link Manager, Frontend
- Sehr einfache Suchmaschine
- Datenanalyse - Link ROT analysieren, wie viele Seite von anderen Quellen zitiert, Link -Domänen usw. analysieren, usw.
Merkmale
Allgemein
- Lesezeichenmanagement mit Tags und Kommentarunterstützung
- Unterstützung für "Räume". Sie können eigene Räume wie "Musik", "Videos", "Filme" usw. definieren.
- Keywords -Eintragsanalysen, um Trends zu finden
- Hellmodus und dunkler Modus
- Automatische Exporte
- zum Verzeichnis
- zu Github
- Zugriff für mehrere Benutzer
- Kioskmodus. Automatische Aktualisierung, wenn die URL mit Param "automatisch refresh" auf den Millisekundenwert eingestellt ist
Dienstleistungen
- RSS -Feed -Unterstützung: Unterstützt YouTube RSS, Reddit RSS, Odysee, OpenRSSS
- Unterstützung für archivierte Seiten über Internetarchive oder ein konfiguriertes Archivmedium
- Github -Unterstützung. Exporte. Zum Beispiel Internet -Domains, Benutzer, Projekte
- YouTube-Unterstützung über YT-DLP-Projekt herunterladen
Krabbeln
- Einige Internet -Crawling -Fähigkeiten
- Linksuche. Einfache Implementierung verwendet keine elastische Suche
- Unterstützt keine Proxy -Rotation. Dies ist ein ethischer Web -Schaber, der nicht mit Anfragen spam
- Konfigurierbare Benutzeragenten, Crawler, Selen, Anfragen, Chrom unentdeckt, Craclee, Leicht verlängertbar
Privatsphäre
- Lokale Daten, keine Algorithmen, keine Werbung, selbst gehostet
- Benutzeraktionsverfolgung. Sie können die Geschichte Ihrer "Ansichten", "Suche", "Kommentare", "Durchsuchen der Geschichte" beobachten und analysieren.
Suite von Projekten
- Lesezeichen Links
- Internet -Domänen, Benutzer, Projekte
- Tägliches RSS -Git -Repository für das Jahr 2024
- Tägliches RSS -Git -Repository für das Jahr 2023
- Tägliches RSS -Git -Repository für das Jahr 2022
- Tägliches RSS -Git -Repository für das Jahr 2021
- Tägliches RSS -Git -Repository für das Jahr 2020
Links
- Screenshots
- Installation, Konfiguration
- https://renegat0x0.ddns.net/apps/catalog/ - Instanz, die wie YouTube -Ersatz aussieht
- https://renegat0x0.ddns.net/apps/various/ - Demo -Instanz, die verschiedene Dinge enthält
- Anmerkungen zur Suchbranche
- Datenanalyse
- Entwicklung
Alternativen
Es gibt alternative Programme zum Link -Lesezeichen.
Horter, Grimoire, Lesemarkos, Regentropfen, Linkace, Ggather, Zotero, Onekeep, Lasso, Carrylinks, Zlinky, Wakelet, Booky, Webtag, Historious, Knowsies
Awasome -Liste bei GitHub.
Wie funktioniert es?
- System liest regelmäßig "Quellen"
- Jede "Quelle" wird regelmäßig auf neue Daten überprüft. RSS -Feeds sind eine Art von Quelle
- Neue Links werden in die Datenbank eingefügt
- Jeden Tag können Ihre Lesezeichen in ein Repository exportiert werden, falls konfiguriert
- Neue Links werden verwendet, um beliebte "Keywords" zu füllen
Ranking -Algorithmus
Jede Seite wird nach mehreren Faktoren eingestuft.
- Inhaltsranking. [0..100] Reichweite
- Benutzer stimmen. [-100..100] Reichweite
Das Ergebnis ist entsprechend der Berechnung gleich
- Page -Ranking = Inhaltsranking + Benutzer Stimmen
Inhaltsranking
Um eine gute Seitenbewertung zu haben, ist es wünschenswert, gute Standards zu folgen:
- Schema -Validator
- W3C Validator
- Geben Sie HTML -Meta -Informationen an. Weitere Informationen im offenen Graph -Protokoll
- Geben Sie einen gültigen Titel an, der präzise, aber nicht zu kurz ist
- Geben Sie eine gültige Beschreibung an, die präzise, aber nicht zu kurz ist
- Geben Sie ein gültiges Veröffentlichungsdatum an
- Geben Sie ein gültiges Miniaturbild, Medienbild an
- Geben Sie einen gültigen HTML -Statuscode an. Keine ausgefallenen Weiterleitungen, JavaScript -Umleitungen
- RSS -Feed bereitstellen. Geben Sie HTML-Meta-Informationen an.
- Geben Sie Search Engine -Keywords -Tags an
Ihre Seite, Domain existiert neben Tausenden anderer Seiten. Stellen Sie sich vor, Ihre Meta -Daten haben Auswirkungen auf Ihre Anerkennung und Ihr Seitenranking.
Denken Sie daran: Eine gute Seite ist immer höher eingestuft.
Sie fragen sich vielleicht, warum ich über Suchmaschinen -Keywords -Meta -Feld schreibe, wenn Google sie nicht benötigt. Nun, ich mag Google nicht. Wenn wir möchten, dass alternative Lösungen existieren, sollte es möglich sein, Ihre Seite einfach aus einfacheren Suchmaschinen zu finden. Geben Sie Keywords -Feld an, wenn Sie das offene Web unterstützen.
Stimmen -Ranking
Die Datenbank wird von der RSS -Link -Datenbank und den Nutzungsstimmen verwaltet. Der Durchschnitt der Stimmen wird für jeden Link berechnet.
Export
Es gibt mehrere Exporttypen. Jede Tagesdaten können exportiert werden.
Die Exporte unterstützen die JSON -Dateistruktur.
Wir pflegen einige Daten, aber es wird nicht archive.org ersetzt. Wir speichern nur Meta -Daten zu Webseiten: Titel, Beschreibung, Miniaturansicht.
Die meisten Ansichten enthalten die Schaltfläche "JSON anzeigen", die die Ansichtsdaten als JSON liefert. Dies kann von Skripten, zum Import, zum Exportieren verwendet werden.
Arten von Exporten:
- Tägliche Daten - Jeder Tag hat ein eigenes Verzeichnis
- Jährliche Daten - Jedes Jahr enthält Informationen getrennt
- Daten nicht zeitbezogen - Daten sind in getrennten Verzeichnissen und sind nicht zeitlich zusammengefasst
Import
Nach Administrator. JSON-Datendateien können für Importe oder andere Django-Link-Archiv-Apps [im Konstruktion] verwendet werden.
API -Schlüssel
Der Administrator kann API -Schlüssel erstellen, damit nicht protokollierte Benutzer auf den Inhalt zugreifen können.
Format:
https://yourpage.com/your-app/index?key=yourgeneratedkey
Geschichte
Sie können lokal Ihr eigenes Web -Surfenhistorie behalten. Vergessen Sie die Browsergeschichte oder Lesezeichen.
Mit dieser selbsthostierten Lösung müssen Sie nichts synchronisieren, da sich alles auf diesem Server befindet.
Vergessen Sie YouTube -Video -Browser -Verlauf oder Abonnements. Sie können steuern, was Sie sehen und wann!
Skripte
Web-Scraping-Funktionalität kann auch ohne Django verwendet werden.
Es gibt einige Skripte, die ohne Django -Anwendung verwendet werden können:
- yafr.py - Ein weiterer Feed -Leser, Commandline -Client
- Page_props.py - Befehlszeilen -Tools, die Seiteneigenschaften anzeigen
- Beispiel_Page_Crawler.py - Beispielskript, das durch die Webseite kriechen kann
- Beispiel_Compare_crawlers.py - zeigt, wie viel Zeit es braucht, um verschiedene Crawler auszuführen
- Converter.py - Konvertiert JSON -Dateien in die SQLite -Tabelle
- DataAnalyzer.py - Analysiert Daten in JSON -Dateien / SQLite -Tabelle. Sie können die Daten abfragen
- script_server.py - Server, mit dem Crawler für bestimmte URLs versendet werden kann, um Meta -Daten zu erhalten
- script_client.py - Client, mit dem eine Verbindung zum Server hergestellt werden kann, und Debugg -Crawler -Skripte
- Workspace.py - Arbeitsbereich Management. Kann verwendet werden, um das Projekt zu aktualisieren
- backup.py - Skript zur Sicherung von Postgresql -Daten
Leichte Navigation
Dieses Projekt wurde geschaffen, um die Navigation zu verleihen. Aus einem Link sollte es daher Navigation zu anderen Orten geben:
- Google
- Andere Suchmaschinen, Wikipedia usw.
- Link zum Internetarchiv usw.
Auch wenn Google Links zum Internet -Archiv implementiert oder die meisten dieser Funktionen einführt, sollten wir unsere Arbeiten dazu fortsetzen, da wir nie wissen, wann das Unternehmen beschließt, sie nicht zu unterstützen.
Federated [im Bau]
Dieses Projekt wird verbessert. Daher können Sie sich auf Daten von anderen DJang-Link-Archiv-Instanzen verlassen.
Du kannst:
- Definieren Sie die Proxy -Quelle des automatischen Imports aus einer anderen Link -Archivinstanz
- Importieren Sie Links aus einer anderen Link -Archivinstanz manuell oder manuell oder
Proxy -Quellen [im Konstruktion]
Lassen Sie uns zuerst ein Szenario definieren. Sie haben Instanz A und Instanz B. Instanz B hat eine Quelle definiert.
Sie möchten nicht, dass ein Beispiel A dieselben Daten aus dem Internet holt. Sie möchten Daten aus Instanz B. holen
Um das zu tun:
- Navigieren Sie zu Instanz -B -Quellen.
- Finden Sie Ihre gewünschte Quelle.
- Klicken Sie auf "JSON anzeigen" (Ort dieser Adresse kopieren).
- Navigieren Sie in Instanz A zu Quellen.
- Fügen Sie eine neue Quelle hinzu
- Fügen Sie die Instanz -B -Adresse, den JSON -Adresslink, ein
- Das System sollte den Quellentyp von JSON vorschlagen
Benutzerverwaltung [im Konstruktion]
Das Projekt verwendet das Standard -Benutzerauth -Modul.
Roadmap für das Endspiel.
- Zuerst kann nur Administrator neue Benutzer hinzufügen. Zum Ausführen von Instanzkontaktadministrator
- Sie erstellen keine Passwörter, sie werden für Sie mit einer ordnungsgemäßen Komplexität generiert. Bitte schreiben Sie sie auf
- Kontaktieren Sie andere Benutzer, andere Benutzer können auch neue Benutzer hinzufügen, wenn Karma dies zulässt
Karma -Effekt auf den Benutzer:
- Wenn Ihr Karma unter 0 geht, ist Ihr Konto verboten
- Nach einem bestimmten Schwellenwert können Sie neue Links einreichen
- Nach einem bestimmten Schwellenwert können Sie Kommentare einreichen
- Nach einem bestimmten Schwellenwert können Sie Kommentare aufstimmen und herunterzusetzen
- Nach einem bestimmten Schwellenwert erstellen Sie Benutzer (1 pro Tag)
Was verursacht Karma -Veränderung:
- Administrator oder Moderatoren
- Hinzufügen von Abstimmung für einen Link
- Upvotes oder Downtums zu Kommentaren
- Verbote anderer Benutzer, die Sie eingeladen haben
Benutzeraktionen werden vom System nur dann verfolgt, wenn es so konfiguriert ist:
- Benutzer können Kommentare für Einträge veröffentlichen
- Benutzer können Einträge markieren
- Benutzer können für Einträge stimmen
- Das System speichert begrenzte Anzahl von Suchabfragen. Der Benutzer kann frühere Abfragen aus Combobox auswählen
- System speichert Reihenfolge der Besuche zu Einträgen. Dies ermöglicht für jeden Eintrag einen "verwandten" Abschnitt. Wenn Sie beispielsweise den Eintrag "x" nach "y" bestimmen, wird "x" im Abschnitt "Y" angezeigt
Begründung
Es gibt viele Programme, aber die meisten von ihnen haben einige Einschränkungen.
- Lizenz: Einige Kunden sind nicht Open Source oder nicht ganz Open Source (z. B. Reddit). Einige Programme sind keine Programme aus Sicht der Benutzer, sondern ein Service: feedly, Taschen, Readwise Reader. Sie benötigen Konto. Ihre Bedingungen und ihr Service können sich ändern
- Schnittstelle: Die meisten RSS -Programme sind GUI: Thunderbird, Feeder. Ich wollte eine Webseite, eine App, auf die überall zugegriffen werden kann
- Fehlende Suchfähigkeit (Nextcloud "News" -Anwendung, Thunderbird, Feeder Android App, Newsboat Linux App)
- Fehlende Tag -Unterstützung (Thunderbird, Android Feeder App)
- Einige Programme bieten keine Linkbewertung
- Import / Export: Die meisten Programme bieten dies nicht einfach (ich möchte JSON -Dateien!)
- Skala: Einige Projekte sind groß. Dieses Projekt konzentriert sich auf die Bereitstellung von "Single -User" -Erfahrung. Ich möchte hier nicht viele Abhängigkeiten
- Ziel: Reddit, Lemmy Ziel ist es, soziale Medienerfahrungen zu bieten. Dieses Projekt soll die Möglichkeit ermöglichen, Datenbank mit Links zu erstellen
Zusätzliche Notizen
Was mahlt meine Zahnräder?
- Google bietet keine einfache Möglichkeit, zwischengespeicherte Website wie archive.org zu sehen. Sie haben es, sie lassen Sie einfach nicht darauf zugreifen
- Es ist nicht einfach, neue Orte im Internet zu entdecken. Wann haben Sie eine "neue" Site gefunden, die es wert ist, sie zu sehen? Ein Blog? Persönliche Seite? Google hat einen Index von Milliarden von Seiten, aber das Internet sieht leer aus
- Die alte Webseite wird in der Google Search niemals an erster Stelle sein
- In der Google -Suche gibt es keine Schaltfläche, um den Ziellink zu übersetzen
- YouTube bietet "verwandte" Abschnitt für Videos. Warum liefert Google bei der Suche keine "zugehörige" Linkliste?
- Es ist wirklich schwierig, etwas über Amiga oder alte technische Sachen zu finden
- Erste Seite Irrtum. Zweites Google -Suchergebnis tun wichtig. Die zweite Google -Suchseite ist auch von Bedeutung. Wenn ich nach "PHP" suche, gibt es Tausende von Frameworks, Projekte, die es wert sind. Warum kann ich sie nicht einfach mit Google Search finden? Wir geben die Google -Suche zu viel Anerkennung
Archive.org:
- Ist nicht zuverlässig. Manchmal wird es schmerzhaft langsam. Es ist immer noch besser als nichts
- Die meisten Mainstream -Medien -RSS sind abgedeckt, aber die Berichterstattung ist fleckig. Nicht alle Tage sind abgedeckt
- Internet Archive (Archive.org) bietet für alle RSS -Quellen keine Schnappschüsse für jeden Tag. Es ist manchmal ziemlich langsam. Wir möchten sicher sein, dass ein solcher Schnappschuss stattfindet. Daher müssen wir Links zu täglichem Repo selbst exportieren. Die Django RSS -App stellt auch Anfragen zum Archivieren, um die Schnappschüsse zu machen
Legal
- Ich unterstütze keinen Link jeden Link in der Datenbank. Ich mag einige Links wichtig sein, weil der Inhalt schlimm ist. Ich benutze Ironie oft, also pass auf!
- Jeder hat das Recht, vergessen zu werden. Wenn ein Link aus einer Datenbank entfernt werden sollte, kontaktieren Sie mich bitte
- Ich erhalte keine Form der Geldkompensation von Link oder Daten darüber. Die Datenverbindungsinformationen wurden bereits von RSS -Quellen bereitgestellt. Die RSS -Quelle ist verantwortlich für das, was sie kostenlos zur Verfügung stellen
Endnotizen
Alle Links gehören uns!