Benutzer Diskussion:Filzstift/wikisign.org
aus Wikipedia, der freien Enzyklopädie
This page is set up for general feedback for the tool wikisign.org. For adding a new question or feedback you can edit this page.
Diese Seite ist für das Tool wikisign.org gedacht. Support bei SQL-Abfragen bitte auf Wikipedia:Datenbankabfragen/Wünsche und nicht hier.
[Bearbeiten] Datenbankabfragen allgemein
Coole Sache der Server fuer Datenbankabfragen, habe ich bereits ein paar mal ausprobiert bevor ich jetzt davon erfahren habe, dass das deiner ist. Z.B. habe ich die Liste der kurzen Gemeindeartikel damit aktualisiert, super wenn man Zeit hat zu warten oder es nebenher macht. Gruss --Horgner + 21:42, 10. Jun 2005 (CEST)
- Zwei Vebesserungswünsche habe ich. Könnte es einen online oder jedenfalls einen schnelleren Syntaxtest geben? Sodass man nicht solange auf eine Fehlermeldung warten muss. Zweitens wenn die Syntax korrekt war und eine Nullliste zurückkommt weil keine Einträge gefunden werden konnte, ist das eigentlich ja kein Fehler sondern bedeutet nur, dass ich keine Arbeit mit dem abbarbeiten der Liste habe weil ein gesuchtes Manko vielleicht schon überall behoben wurde. Trotzdem das Ding ist great und manchmal gar nicht so besonders langsam. --Horgner + 13:28, 12. Jun 2005 (CEST)
Danke, dass es dir gefällt. Habe es jetzt so angepasst, dass es Fälle "Fehler" und "Keine Resultate" unterscheidet. Einen Tipp noch: anstatt z.B.:
SELECT CONCAT( '# [[', cur_title, ']] (', LENGTH( cur_text ) , ' Bytes)' ) FROM cur WHERE cur_text LIKE '%<!--schweizbezogen-->%' AND cur_text NOT LIKE '%{{Begriffsklärung}}%' ORDER BY LENGTH( cur_text ) ASC , cur_timestamp ASC LIMIT 20
lieber wie folgt abfragen:
SELECT cur_title, cur_namespace, CONCAT(LENGTH( cur_text ) , ' Bytes') AS Groesse FROM cur WHERE cur_text LIKE '%<!--schweizbezogen-->%' AND cur_text NOT LIKE '%{{Begriffsklärung}}%' ORDER BY LENGTH( cur_text ) ASC , cur_timestamp ASC LIMIT 20
So werden zwei Spalten dargestellt (das AS dient hier zum Darstellen des Spaltentitels, cur_namespace wird nicht dargestellt, da der Skript es automatisch in cur_title reintut, wenn das entsprechende Häkchen gesetzt ist).
Bei dir war es halt kein Syntaxfehler. *g* Zudem kann ich es (glaub ich) nicht beeinflussen, da der MySQL-Server diese Arbeit macht und die Fehlermeldungen ausspuckt, d.h. mein Skript kann diese nur übernehmen...
Viel Spass noch damit --Filzstift ✑ 17:08, 12. Jun 2005 (CEST)
- Ich seh schon ich muss mich etwas besser in SQL einlesen. Leider ist die online Beschreibung nicht gerade für Anfänger sehr geeignet, oder ich pflastere dir den Server mit meinem Ramsch voll was siche nicht nett wäre. Gruss --Horgner + 18:38, 12. Jun 2005 (CEST)
Habe nun eine kleine Anleitung geschrieben, es ist hoffentlich idiotensicher *g*:
Wegen dem Zusammenmüllen. Dies macht überhaupt nichts! Denn wer nichts wagt, gewinnt nichts. --Filzstift ✑ 08:24, 13. Jun 2005 (CEST)
[Bearbeiten] Wiktionary, Wikibooks etc.
Hallo Filzstift,
Das mit der Seite wikisign.org ist eine großartige Idee! Was jetzt aber noch fehlt ist eine Abfragemöglichkeit für das Wiktionary (natürlich auch für's Wikibooks und Wikiquote). Das wäre eine tolle Sache :-) Oder gibt es da irgendwelche Probleme (platztechnisch (MByte), oder so)? --- Freundliche Grüße Melancholie→Diskussion 02:29, 25. Jun 2005 (CEST)
- Die jeztigen Wikipedias dort verschlingen bereits 14 GB (muss wohl jetzt eine zweite Festplatte einspannen). Es sind natürlich primär Platzprobleme; doch anderseits sind die anderen Wikimedia-Angebote nicht so umfangreich... Werde mal schauen, ob dies einfach bewerkstelligen lässt (glaube schon) --Filzstift ✑ 12:27, 25. Jun 2005 (CEST)
[Bearbeiten] Kommentare, Strägstriche
Hallo Filzstift, ich hab eine Bitte: Richte an geeigneter Stelle eine Seite für Kommentare ein und verlinke sie von deinem Projekt aus. Dann weiß ich beim nächstenmal genau, wo ich meine Fehlermeldungen hinschicken muss ;)
Wie du z.B. an diesem Ergebnis siehst, funktionieren WP-Links mit Schrägstrichen nicht, die Schrägstriche dürfen anscheinend nicht escaped werden. Anstelle des Links
- de.wikipedia.org/wiki/Abk%C3%BCrzungen%2FGesetze_und_Recht
muss also
- de.wikipedia.org/wiki/Abk%C3%BCrzungen/Gesetze_und_Recht
als Link angegeben werden. Ich gratuliere hier nochmals zur Einrichtung dieses Projektes! :) --SirJective 16:24, 26. Jun 2005 (CEST)
Schrägstriche sollten jetzt möglich sein. Habe den Code angepasst --Filzstift ✑ 12:05, 18. Jul 2005 (CEST)
[Bearbeiten] Problem mit MySQL-SQL-Syntax bei EXISTS
Ich hoffe ich bin hier nicht komplett falsch, aber ich versuche, eine Abfrage mit "EXISTS" abzusetzen und kriege immer eine Fehlermeldung, siehe http://www.wikisign.org/chronikdetail.php?key=1e4f5f99d5f6ccefabae7575ba66ae37&wsLang=de
Übrigens, die ausgeführte Abfrage ist nicht das, was ich eigentlich ermitteln möchte, aber als Beispiel reichts wohl. Ich würde mir als Ergbnis eine Liste mit alle Artikel, die brokenlinks und links haben erwarten, bekomme aber immer die Fehlermeldung!
Laut SQL-Referenz auf http://dev.mysql.com/doc/mysql/en/exists-and-not-exists-subqueries.html sollte das funktionieren. --Centic 8. Jul 2005 18:32 (CEST)
- So wie ich das sehe, wird MySQL 4.0.17 benutzt. Erst ab Version 4.1.x funktionieren bei MySQL solche Subqueries. --Echoray 8. Jul 2005 22:39 (CEST)
-
- Oh, ich habs befürchtet, danke für den Hinweis. Ich hab jetzt auch einen Kommentar auf http://dev.mysql.com/doc/mysql/en/exists-and-not-exists-subqueries.html eingetragen und folgende Seite mit Hinweisen für Umgehungsmöglichkeiten gefunden: http://dev.mysql.com/doc/mysql/en/rewriting-subqueries.html --Centic 9. Jul 2005 00:21 (CEST)
Ist jetzt auf MySQL 4.1 aktualisiert worden --Filzstift ✑ 12:05, 18. Jul 2005 (CEST)
[Bearbeiten] Queries stuck in queue
Because the query "MPs category" was a strange error in it, all queries created after it are stuck in the queue. Could you please remove that query manually, in order to allow the rest to continue (sorry for not using German, I know nothing of the language). Thanks en:ABCD✉ 03:08, 1. Aug 2005 (CEST)
[Bearbeiten] Queries which run for hours
Because some queries run for quite a long time, it would be nice if there were two queues. Start running each query with some restriction (ie, CPU limit or time limit) which only allows quick queries. Queries which fail due to using up the alloted time would be rerun in a low-priority queue for long-running queries. A checkbox could allow those who know their inquiries will take a while to request the low priority queue (but that is optional). (SEWilco) 207.195.192.247 22:31, 12. Aug 2005 (CEST)
- i've do now two queues, but its still not optimal. i'll try to solve the problem. thank you for your input --Filzstift ✑ 12:02, 13. Aug 2005 (CEST)
[Bearbeiten] brokenlinks
hi,
ich versuche eine Abfrage bezüglich fehlerhafter links durchzuführen, so wie sie z.B. Benutzer:MichaelDiederich/SQL vorschlägt. Aber als Fehlermeldung kommt "wikide.brokenlinks" existiert nicht. Wurde das Feld umbenannt? --WikiWichtel Cappuccino? 21:37, 8. Sep 2005 (CEST)
- Hi die Tabelle "brokenlinks" gibt es seit Mediawiki 1.5 nicht mehr. Stattdessen "pagelinks" (ene Art Fusion von "Links" und "Brokenlinks"). Wie man dies nützt, weiss ich auch nicht *g*. Am besten mal MichaelDiedrerich oder SirJecteive fragen. --Filzstift ✑ 22:22, 8. Sep 2005 (CEST)
-
- Eine kurze Beschreibung der Felder in der neuen Tabelle gibt es unter Wikipedia:Datenbank-Abfragen/Schema#pagelinks. Man muß daher jetzt immer auf cur joinen und für brokenlinks ein NOT EXIST oder für erfüllte links ein EXIST einbauen. Beispiele sehen dann etwa so aus (ungetestet, kann noch SQL-Fehler enthalten):
Alle Links im Artikel 'Österreich'
SELECT p.pl_namespace, p.pl_title FROM pagelinks p, cur c1 WHERE c1.cur_namespace = 0 AND c1.cur_is_redirect = 0 AND c1.cur_id = p.pl_from AND c1.cur_title like 'Österreich' LIMIT 200;
Alle Brokenlinks im Artikel 'Österreich'
SELECT p.pl_namespace, p.pl_title FROM pagelinks p, cur c1 WHERE c1.cur_namespace = 0 AND c1.cur_is_redirect = 0 AND c1.cur_id = p.pl_from AND c1.cur_title like 'Österreich' AND NOT EXISTS ( SELECT * FROM cur c2 WHERE c2.cur_namespace = p.pl_namespace AND c2.cur_title = p.pl_title ) LIMIT 200;
Alle vorhandenn Links im Artikel 'Österreich'
SELECT p.pl_namespace, p.pl_title FROM pagelinks p, cur c1 WHERE c1.cur_namespace = 0 AND c1.cur_is_redirect = 0 AND c1.cur_id = p.pl_from AND c1.cur_title like 'Österreich' AND EXISTS ( SELECT * FROM cur c2 WHERE c2.cur_namespace = p.pl_namespace AND c2.cur_title = p.pl_title ) LIMIT 200;
--Centic 11:49, 9. Sep 2005 (CEST)
[Bearbeiten] Bilder
Ich habe auf Wikisign die folgende Abfrage duchgeführt, um Bildseiten zu finden:
select cur_namespace, cur_title from cur where cur_namespace = 6 and not(cur_text like '%{{%') ORDER BY cur_title LIMIT 100
Das funjktioniert eigentlich ganz gut, aber es werden leider auch Bilder gefunden, die auf den Commons liegen, da die Bildbeschreibungsseite hier dann netürlich keine Vorlage enthält. Kann man das irgendwie ändern?
Außerdem habe ich noch einen Verbesseungsvorschlag für Wikisign: Die Antwort wird ja auch als Wiki-Tabelle ausgegeben. Aber wen man nach Bilden sucht, sieht das ergebniss ungefähr so aus:
{| |- !cur_title |- |[[Image:Beispiel.jpg|Image:-quikarte1.jpg]] |}
Dadurch wird aber in der Tabelle das Bild angezeigt, stadt nur einem Link auf das Bild. Besser wäre es, wenn die ausgabe so aussehen würde:
{| |- !cur_title |- |[[:Image:Beispiel.jpg]] |}
-- Timo Müller Diskussion 16:19, 12. Sep 2005 (CEST)
- Den zweiten Vorschlag (:Image) werde ich machen. Ersteres ist schon sehr schwierig, da Artikel im Image-Namespace nun mal meistens vorhanden sind... --Filzstift ✑ 08:29, 13. Sep 2005 (CEST)
- Habe ich mir schon gedacht. Na da wird mir wohl nichts übrig bleiben, als die Commons-Bilder selbst rauszusuchen. Ich hoffe es sind nicht so viele. -- Timo Müller Diskussion 09:35, 13. Sep 2005 (CEST)
- Nachtrag: Ich habe da eine Idee, aber ich weiß nicht, ob man sie umsetzen kann: Dazu müsste man auf zwei Datenbanken in einer Abfrage zugreifen können. Dann kann man alle Bilder rausfiltern, die auf den Commons vorhanden sind. -- Timo Müller Diskussion 18:27, 13. Sep 2005 (CEST)
- Datenbanken mehrer Wikipedias sind möglich (z.B. für gleichlautende Titel in der de- und fr-DB: SELECT cur_title FROM cur WHERE cur_title = wikifr.cur.cur_title); was allerdings noch gemacht werden müsste, ist die commons-DB uploaden. Kann ich noch machen; nachdem ich die de-Datenbank aktualisiert habe (geht ein paar Tage). --Filzstift ✑ 07:34, 14. Sep 2005 (CEST)
- Nachtrag: Ich habe da eine Idee, aber ich weiß nicht, ob man sie umsetzen kann: Dazu müsste man auf zwei Datenbanken in einer Abfrage zugreifen können. Dann kann man alle Bilder rausfiltern, die auf den Commons vorhanden sind. -- Timo Müller Diskussion 18:27, 13. Sep 2005 (CEST)
- Habe ich mir schon gedacht. Na da wird mir wohl nichts übrig bleiben, als die Commons-Bilder selbst rauszusuchen. Ich hoffe es sind nicht so viele. -- Timo Müller Diskussion 09:35, 13. Sep 2005 (CEST)
-
-
-
-
- Das wäre nett. Ich finde es sowieso nett von dir, das du mit Wikisign auch Leuten, die sich nicht die ganze Datenbank runterladen können, die Möglichkeit gibst, Datenbankabfragen durchzuführen.
-
-
-
-
-
-
-
- Was für eine Abfrage müsste ich dann durchführen, um alle Bilder zu finden, die keine Vorlage enthalten und nicht auf Commons liegen? Diese?
-
-
-
select cur_namespace, cur_title from cur where cur_namespace = 6 and not(cur_text like '%{{%') and not(cur_title = commons.cur.cur_title) ORDER BY cur_title LIMIT 100
-- Timo Müller Diskussion 18:55, 14. Sep 2005 (CEST)
[Bearbeiten] Wikipedia:IP-Diskussionen
Hallo und guten Tag, ich hoffe, ich bin jetzt auf der richtigen Diskussionsseite? Es wäre fein, wenn obige Liste aktualisiert werden könnte. Viele Grüße und einen schönen Tag :-) Anneke Wolf 14:23, 15. Sep 2005 (CEST)
- Hi, werde es dann machen, wenn die aktuellste DB aufgespielt wurde (ca. 2-3 Tage geht es noch) --Filzstift ✑ 15:48, 15. Sep 2005 (CEST)
[Bearbeiten] Limitbeschränkung
Hallo Filzstift,
durch eine SQL-Abfrage der deutschen Wikipedia möchte ich eine Verweistabelle (für Personeneinträge) mit PND-Nummer, Titel und Interwikilinks (bzw. Titel der fremdsprachigen Wikipedias) für alle Personeneinträge mit vorhandener PND-Nummer generieren. Den SQL-Code habe ich auf wikisign auch getestet und optimiert (klasse das System mit der email-Benachrichtigung!). Wikisign setzt mir aber immer ein LIMIT 500 in die Abfrage (ich denk mal um den Server nicht zu überlasten). Kann man das ausnahmsweise ;) auch umgehen. Die Abfrage (ohne LIMIT) bringt wahrscheinlich dann so um die 10.000-30.000 Ergebnisse.
Das ist übrigens die Abfrage: http://www.wikisign.org/chronikdetail.php?key=06a229b049a7082d8c922134db409563&wsLang=en
- Arch2all 16:29, 21. Sep 2005 (CEST)
- Da du schon so nett frägst, die Abfrage ohne LIMIT-Beschränkung befindet sich hier: [1]. Musst halt warten, bis diese fertig ist. Die Limit-Beschränkung musste ich fast zwangsläufig machen, da häufig Abfragen à là "SELECT * from cur" kamen (welches ja gleich mehrere GB fürs Protokoll verschlingen würde *g*)--Filzstift ✑ 18:51, 21. Sep 2005 (CEST)
[Bearbeiten] rien ne va plus?
Schade, dass da scheinbar nichts mehr geht.... Wie stehen die Aussichten, dass da mal wieder was vorwärst geht? Danke für deine Arbeit und das Tool. Gruss --Horgner + 06:59, 6. Okt 2005 (CEST)
- Auf Benutzer:Filzstift/wikisign.org habe ich eine kleine Begründung abgeliefert, falls es dir noch nicht aufgefallen ist. Die genaue Ursache des Problems kenne ich noch nicht und im Moment habe ich leider nicht soooo viel Zeit, mich darum zu kümmern. Bis vor ca 2 Monaten war der Server ein Powerbook mit Mac OS X, da lief es echt wunderbar. Da ich den Laptop ja nicht weiterhin als Server missbrauchen wollte (benütze ihn zur alltäglichen Arbeit), installierte ich diesen fortan auf einem (Windows-)PC. Dort hatte ich bisher fast nur Probleme und das Ganze ist verdammt langsam *argh*. Eigentlich wollte ich es urpsrünglich auf Linux installieren, da funktioniert die TV-Karte, die ich für ein anderes Projekt brauche, aber nicht... --Filzstift ✑ 07:23, 6. Okt 2005 (CEST)
- Es sollen schon andere Benutzer/Administratoren gegeben haben, die mit BG-Software nicht glücklich geworden sind :-( Ich verstehe vollkommen, dass man hie und da auch was anderes als WP machen sollte. Ich hab mich nur zu dieser Anfrage hier durchgerungen weil da ja so ein Job seit September alles zu blockieren scheint und neuere Job's trotzdem irgendwie bearbeitet werden. Andererseits stehen alte Job's seit einer Woche in der Queue. Da ich denke, dass es nichr sehr hilfreich ist einfach neue Jobs zu generieren, in der Hoffnung, dass mal einer durchrutsch hab mich hier mal eben an dich gewandt. Gruss --Horgner + 12:40, 6. Okt 2005 (CEST)
[Bearbeiten] Mails?
Also erstmal großes Lob, auf dem neuen Betriebssystem laufen die Abfragen ja sowas von schnell durch, echt super! Aber kann es sein, dass der Mailversand noch nicht funktioniert? ist mir nur so aufgefallen, hatte 4 Abfragen zu laufen und diese beinahe vergessen, weil ich keine Mails bekommen hab. --BLueFiSH ?! 12:35, 17. Okt 2005 (CEST)
Habs mal getestet: GMX scheint die Mails abzulehnen, Web.de nimmt sie an, da bekomm ich welche. Kannst du da was drehen? --BLueFiSH ?! 07:41, 20. Okt 2005 (CEST)
- Ich kämpfe mit dem Problem. Das Hauptproblem ist, dass ich eine dynamische IP-Adresse verwende, was viele Mailserver zum Schutze vor Spam ablehnen. Ich versuchte daher einen Relay zu verwenden, was aber - wie deine Klage zeigt - anscheinend nicht richtig zu funktionieren scheint. Werde aber dran bleiben (bin aber ab morgen eine Woche in den Ferien) --217.162.88.176 13:23, 21. Okt 2005 (CEST)
[Bearbeiten] Danke!
Hallo Filzstift, der Move weg von Windows hat sich mindestens für die Benutzer gelohnt. Ich kann mir die viele Arbeit lebhaft vorstellen und darum meinen ganz besonderen Dank an dich. Gruss aus Horgen der --Horgner + 16:15, 23. Okt 2005 (CEST)
[Bearbeiten] page-Tabelle
Hallo, seit neuestem wird auch die page-Tabelle gedumpt (als .gz SQL-Dump), die alle Metadaten der Artikel enthaelt. Mit geeigneten Indizes waere sie eine schnelle Alternative zur cur-Tabelle fuer Abfragen, die den Artikeltext nicht brauchen (was aber leider so viele tun). Ich weiss nicht, ob sich das fuer dich lohnen wuerde. --SirJective 16:56, 31. Okt 2005 (CET)
- Danke für den Hinweis. Werde die
xx_page_table.sql.gz
bei den nächsten Updates miteinbeziehen. --Filzstift ✑ 14:35, 3. Nov 2005 (CET) - So, bei den Dumps vom 5. November an ist die Page-Tabelle dabei --Filzstift ✑ 07:56, 8. Nov 2005 (CET)
[Bearbeiten] DB-Beschreibung
Hallo Filzstift
Ich wollte eben mal was auf wikisign abfragen. Mein Problem ist aber, wie die Tabellen und die Spalten heissen und was sie beinhalten. Gibt es eine irgendwie geartetete Dokumentation der Datenbank (ERD, Liste der Tabellen- und Spaltennamen, etc.)? Vielen Dank --Flyout 14:21, 8. Nov 2005 (CET)
- Wikipedia:Datenbank-Abfragen/Schema (und ich dachte immer , der Link von [2] auf diese seite ist genug deutlich ;)). Neu ist page.
- Man kann überigens mit select * from (tabelle) limit 1 sich die Spalten anzeigen lassen. --Filzstift ✑ 14:26, 8 November 2005 (CET)
- Wer lesen kann, ist eindeutig im Vorteil. Ich habe gedacht, ich hätte überall danach gesucht, aber scheinbar... Vielen herzlichen Dank für die prompte Antwort! --Flyout 14:34, 8. Nov 2005 (CET)
[Bearbeiten] Wikipedia:Fehlende Artikel
Ich wollte die Seite Wikipedia:Fehlende Artikel mal aktualisieren aber irgendwie funktioniert http://www.wikisign.org/ nicht so richtig. Was mache ich falsch? --Atamari … 02:09, 12 November 2005 (CET)
- Ganz einfach, weil die Abfrage veraltet ist. Die Tabelle 'brokenlinks' existiert nicht mehr. Die SQL-Anfrage müsste angepasst werden. --10:44, 13. Nov 2005 (CET)
- Die Abfrage habe ich schon versucht anzupassen (vom 2005-11-11 12:35:07), nur es kam kein Ergebnis. Jetzt nach zwei Tagen ist etwas heraus gekommen. Das Ergebnis ist aber nicht befriedigend. --Atamari … 14:55, 13. Nov 2005 (CET)
- Ach so, sorry, bemerkte es nicht.
Was ist nicht befriedigend? Dass nur Artikel mit weniger als 25 Links daraufhin hinweisen, aufgelistet sind?Ach, es werden alle Artikel, auch die nicht fehlenden aufgelistet. In 'Pagelinks' sind eben auch die "blauen" und nicht nur die "roten" Links daruf. Du musst noch darauf achten, dass ein record in pl_title nirgends in cur_title sein darf. Nur diese sind 'brokenlinks' --Filzstift ✑ 16:32, 13. Nov 2005 (CET)
- Ach so, sorry, bemerkte es nicht.
- Die Abfrage habe ich schon versucht anzupassen (vom 2005-11-11 12:35:07), nur es kam kein Ergebnis. Jetzt nach zwei Tagen ist etwas heraus gekommen. Das Ergebnis ist aber nicht befriedigend. --Atamari … 14:55, 13. Nov 2005 (CET)
- Siehe auch weiter oben, wo ein Beispiel vorhanden ist.
Alle Brokenlinks im Artikel 'Österreich'
SELECT p.pl_namespace, p.pl_title FROM pagelinks p, cur c1 WHERE c1.cur_namespace = 0 AND c1.cur_is_redirect = 0 AND c1.cur_id = p.pl_from AND c1.cur_title like 'Österreich' AND EXISTS ( SELECT * FROM cur c2 WHERE c2.cur_namespace = p.pl_namespace AND c2.cur_title = p.pl_title ) LIMIT 200;
--Filzstift ✑ 16:36, 13. Nov 2005 (CET)
-
- habe um 2005-11-13 14:13:27 einen Versuch gestartet der mehr als 25 Links bringen soll, ich weis nicht warum es so auf der Seite Wikipedia:Fehlende Artikel vorhanden war. Dauert dies auch zwei Tage oder kann man da etwas optimieren? --Atamari … 16:39, 13. Nov 2005 (CET)
- Schade, dass noch keiner das Script zu Wikipedia:Fehlende Artikel aktualisiert hat. --Atamari 23:28, 1. Dez 2005 (CET)
[Bearbeiten] Interwiki queries
Is it possible to make a query that uses tables from two wikis? At the moment they seem to be in separate databases, so maybe not, but could it be changed? --Paradisal 22:12, 14. Nov 2005 (CET)
- Yes you can use more than a database for queries. The databases are named wikide, wikifr, wikija etc. As example for finding articles with the equal title at the german and french wikipedia you can do the following query (result [3]):
select wikide.cur.cur_namespace, wikide.cur.cur_title from wikide.cur, wikifr.cur where (wikide.cur.cur_title = wikifr.cur.cur_title) and (wikide.cur.cur_namespace = 0) and (wikifr.cur.cur_namespace = 0) LIMIT 1000
(It don't matter wich language you selected if you mentoined the database in your query) --Filzstift [[Benutzer Diskussion:Filzstift|✑]] 08:38, 15. Nov 2005 (CET)
[Bearbeiten] Aktualisierung
Moin Filzstift, wollte nur kurz anfragen ob du vorhast de: mit dem aktuellen dump (15.Nov) zu aktualisieren. -- Freundlicher Gruß Peter Lustig 11:03, 15. Nov 2005 (CET)
P.S: Jetzt auch mal ein direktes Dankeschön an dich für das bereitstellen der Ressourcen :-) -- Peter Lustig 11:03, 15. Nov 2005 (CET)
- Danke! Die Aktualisierung der de-Wikipedia werde ich dann machen, wenn das en-Update fertig ist. Hoffe, dass du bis dahin noch warten kannst. --Filzstift [[Benutzer Diskussion:Filzstift|✑]] 11:31, 15. Nov 2005 (CET)
-
- Danke für die Antwort. Hab noch ein paar Artikel zum abarbeiten ;-). -- Gruß Peter Lustig 12:14, 15. Nov 2005 (CET)
Danke für's aktualisieren :-) -- Peter Lustig 02:45, 20. Nov 2005 (CET)
[Bearbeiten] Kategorisierung
Hallo Filzstift, ich hab mal wieder ein ganz tolle Idee, weil mir das Kategorisieren von Artikeln zu umständlich ist. Du kannst mir bestimmt sagen, ob meine Idee überhaupt zu verwirklichen ist. Wenn man einen komplett unkategorisierten Artikel aufmacht, so ist dieser meist schon wikifiziert. Viele Links kommen darin vor. Kenn ich das Thema überhaupt nicht, dann mache ich 1 od. 2 Links auf und schau mir dort die vorhandenen Kategorien an. Fast immer kann man die meisten Kategorien von den Links übernehmen. Glaubst du das das irgendwie automatisch möglich wäre (natürlich ohne andauernd abfragen zu machen).
Es müssten die haüfigst verlinkten Wörter in eine Tabelle kommen, die auch die Kategorien enthalten. Dann müsste ein Programm einen Artikel automatisch nach Links durchsuchen, und alle Kategorien der Links vorschlagen. Der Benutzer braucht nur mehr ein Häckchen bei den gewünschten Kats zu setzten und das Programm spuckt alle als Text aus. Der wird dann vom Benutzer manuell gespeichert. Hört sich ja toll an. Aber ich schätze mal, dass eine monströse Datei mit zu vielen Infos notwendig ist, um dies zu realisiern zu können und dass der Rechner ewig lange braucht um die Infos herauszupicken. Bin gespannt auf deine Meinung. Grüße --Doit 16:07, 1. Dez 2005 (CET)
- Sorry, wenn ich hier Zwischenpresche
- Meiner Meinung nach müsste das einfacher über ein Programm zu realisieren sein, welches den Source des spezifischen Artikels parst und die Kategorien der verlinkten Artikel präsentiert. Also weniger eine DB-Abfragesache als irgendein Script, welches genau die Tätigkeiten durchführt, die Du auch manuell durchführst. Meistens genügen ja die ersten 5-10 Wikilinks um die richtige Kategorie zu finden. Oder ist das zu wenig revolutionär...? ;-) Gruss --Flyout 17:23, 1. Dez 2005 (CET)
-
- Kein Problem, hört sich interessant an, dachte nur wegen der Serverbelastung, die ja eh schon so groß ist, besser vorher über die Tabelle. Aber wenn dein Vorschlag schnell ist beim Ausspucken der Kats, warum nicht. Weißt du genau wie man das macht? Grüße Doit 17:34, 1. Dez 2005 (CET)
-
-
- Ich hab inzwischen mal bei wikisign herumgespielt und hab schon ungefähr die Abfrage. Weiß nicht, ob eine größere Tabelle erstellt werden kann, damit jeder Artikelname nur einmal darin vorkommt. Vielleicht ist der Vorschlag von Flyout doch besser? --Doit 20:41, 1. Dez 2005 (CET)
-
-
-
-
- Hab' inzwischen auch rumgespielt. Auf meinem lokalen System kann ich problemlos ein PHP-Script laufen lassen, das genau das macht, wie ich es oben beschrieben habe. Leider will es nicht so auf meinem Internet-Server. Da kommt nur die Meldung "Warning: file(): URL file-access is disabled in the server configuration in ..." - auf deutsch: Ich kann in der Konfiguration meines Internet-Webservers keine URLs als Files öffnen. Leider. Shit. Grummel. Naja - man müsste es vielleicht anders machen... Gruss --Flyout 22:44, 1. Dez 2005 (CET)
-
-
Ich hab mal schnell mein Java-Programm so modifiziert, dass es (derzeit noch mit starkem Einsatz von Batchfiles und Cygwin) eine Liste der Kategorien verlinkter Artikel ausgibt. Für Aloys Blumauer (zufällig von den unkategorisierten Artikeln ausgewählt) liefert das Skript jeweils die Kategorie und den Artikel in dem sie steht:
- Kategorie:Autor -- Schriftsteller
- Kategorie:Bezirk in Oberösterreich -- Steyr
- Kategorie:Bundesland in Österreich -- Wien
- Kategorie:Hauptstadt in Europa -- Wien
- Kategorie:Kunst (Beruf) -- Schriftsteller
- Kategorie:Land in der EU -- Österreich
- Kategorie:Lesenswert -- Österreich
- Kategorie:Oberösterreich -- Steyr
- Kategorie:Ort in Oberösterreich -- Steyr
- Kategorie:Staat -- Österreich
- Kategorie:Weltkulturerbe -- Wien
- Kategorie:Wien -- Wien
- Kategorie:Österreich -- Österreich
- Kategorie:Österreichische Landeshauptstadt -- Wien
Nun kannst du dir aussuchen, welche Kategorien da passen. ;) Für andere Artikel funktioniert die Idee vielleicht besser.
Mein Programm beschafft sich mittels wget und Spezial:Export die Quelltexte der Artikel und parst sie. --SirJective 18:13, 3. Dez 2005 (CET)
- Hallo SirJective, ich hab inzwischen auch das PHP Tool von Flyout ausprobiert. Du hast recht, dass da fast immer alle möglich Kategorien angezeigt werden. Ich betrachte sie aber als Vorschläge und 2 od. 3 Kats sind fast immer dabei, die man dann auch tatsächlich verweden kann. Auch kann man ja das überprüfen von Geburtsort und einem Datum bzw. Jahrezahlen verhindern, was dann in deinem Beispiel bei mir folgendes Ergebnis liefert:
- [Kategorie:Land in der EU|]
- [Kategorie:Staat|]
- [Kategorie:Österreich]
- [Kategorie:Lesenswert|]
- [Kategorie:Autor|]
- [Kategorie:Kunst (Beruf)]
- Welches Tool ist schneller und glaubst du dass man die angezeigten Kategorien weiter verbessern könnte? Grüße --Doit 11:14, 4. Dez 2005 (CET)
-
- Ein Tool, das übers Netz verwendbar ist, hat den Vorteil, dass man sich nicht selbst die Daten auf die Platte laden muss, und sicherlich ist es einfacher ausbaubar als meine zusammengehackte Batchfile. Jahres- und Datumsartikel hatte ich oben schon ausgeschlossen. Die Geschwindigkeit der Tools hängt vermutlich primär von der Ladezeit der Artikel ab, deshalb werden sie sich kaum unterscheiden.
- Man könnte vielleicht noch zusätzlich die Artikel durchsuchen, die auf den Zielartikel verlinken, aber dafür bräuchte man Zugriff auf eine Linktabelle oder müsste die HTML-Ausgabe der Funktion "Links auf diese Seite" parsen. --SirJective 20:48, 4. Dez 2005 (CET)
[Bearbeiten] Links to images
There is an option to produce wiki-lists of results - a table that can be copy-and-pasted into a wiki page to make finding articles easier. However, this also links to categories and images, which loads the image or adds the page to the category. Would it be possible to change the syntax such that any [[Category... or [[Image... links become [[:Category... or [[:Image..., so they show up normally in the table? en:Shimgray
- Here is a work around: Select CONCAT('Image:',img_name)as cur_title ... en:Ravedave
[Bearbeiten] benutzerseiten
hi
kann ich mit wikisign.org auch benutzerseiten abfragen? ich moechte gerne ueberpruefen, ob eh kein user kategorien verwendet (ausser die user-kats), hatte schon mal so einen fall ;(
mfg JAF talk 19:43, 13. Dez 2005 (CET)
- Benutzerseiten ja, Benutzertabellen nein. --Benutzer:Filzstift ✑ 10:29, 16. Dez 2005 (CET)
- hi, hab schon gesehen, danke, hab nicht an den unterschiedlichen namespace gedacht! trotzdem danke. mfg JAF talk 02:05, 17. Dez 2005 (CET)
-
- Okay, mir war nicht so klar, was du genau gemeint hast ;) --Benutzer:Filzstift ✑ 02:00, 18. Dez 2005 (CET)
[Bearbeiten] ja&ko wikipedia data
Hello, now ja&ko can not use, but ja&ko's data download is temp enabled.([4] & [5]) So, please enable it to use your site using this data. Thank you.竹麦魚 06:01, 23. Jan 2006 (CET)(ja:User:竹麦魚)
- It's done --Benutzer:Filzstift ✑ 14:25, 27. Jan 2006 (CET)
- Thanks a lot! 竹麦魚 23:06, 27. Jan 2006 (CET)
[Bearbeiten] Pagelinks gone?
Ist die tabelle "pagelinks" nicht mehr verfügbar? Meine Abfragen schlagen nun fehl, siehe z.B.: http://wikisign.org/chronikdetail.php?key=cc1de6878b864b0da2b929dab600265d&wsLang=de Danke! --Centic 22:30, 2. Feb 2006 (CET)
- Beim nächsten Update sind sie wieder drauf (habe es jetzt so eingestellt, dass die Pagelinks bei über 500'000 Artikel nicht mehr aufgenommen werden > Update der pagelinks-Tabelle in der en-Wikipedia dauerte 10 Tage...) --Benutzer:Filzstift ✑ 14:04, 6. Feb 2006 (CET)
[Bearbeiten] Wikipedia:Datenbankabfragen/IP-Diskussionen
Die Liste ist abgearbeitet. Bei Gelegenheit mal was Neues einstellen. Danke --Pelz 23:26, 22. Feb 2006 (CET)
- erledigt --Benutzer:Filzstift ✑ 11:21, 23. Feb 2006 (CET)
[Bearbeiten] Fehlende Bilder
Entsprechend zu Wikipedia Diskussion:Bilderwünsche#Projekt: WP Fotosafari? suche ich eine Aufstellung von Ortsartikeln (Städte, Gebäude, Bauwerke), denen die Bebilderung fehlt. Idee lautet "Artikel mit Georeferenzierung, aber ohne Bild oder nur solchem auf .png". Ich habe keine Vortellung, in wieviel Ortsartikel Logos/Wappen als .jpeg drinliegen, aber vielleicht bekommt man die auch irgendwie richtig zugeordnet. Ich nehme auch gerne eine größere Tabelle, die ich dann manuell mit was Sortieren nach verschiedenen Kriterien (ARtikelgröße, Bildgröße, Bildname/n) selbst zusortiere. --jha 18:46, 26. Mär 2006 (CEST)
- Wikipedia:Datenbankabfragen/Wünsche --Benutzer:Filzstift ✑ 07:39, 27. Mär 2006 (CEST)
[Bearbeiten] Abfrage bleibt hängen
Eine von mir mit dem Zeitstempel 2006-03-29 21:09:56 gestartete Abfrage ist offensichtlich "hängengeblieben", nachdem ich mehrere Abfragen etwas schneller hintereinander abgesendet habe. Ich habe diese Abfrage wiederholt. du kannst diese daher löschen. --84.150.216.192 02:45, 30. Mär 2006 (CEST)
- Ja sie blieb tatsächlich hängen. Habe es jetzt trotzdem manuell gestartet (auch wenn du es nicht mehr brauchst ;) --Benutzer:Filzstift ✑ 08:36, 30. Mär 2006 (CEST)--Benutzer:Filzstift ✑ 08:36, 30. Mär 2006 (CEST)
[Bearbeiten] Eine komplexe Abfrage
Hallo, Ich benötige für meine Arbeit in der WP von allen Redirect-Seiten im Diskussions-Namensraum (1) den Titel der Seite, die Anzahl der Links darauf und die Anzahl der Einträge in der History. Wäre super, wenn du das für mich abfragen könntest, denn damit komme ich nicht mehr klar. Eine Liste der Seiten habe ich bereits abgefragt, aber ich benötige auch die Zählungen. Als Kommentar kannst du "Abfrage für Bot" angeben, damit ich es in der Chronik finden kann. --PortalBot 04:03, 30. Mär 2006 (CEST)
- Dazu ist die Seite Wikipedia:Datenbankabfragen/Wünsche die korrekte. Diese Seite ist für wikisign.org und deren Probleme gedacht aber nicht für Hilfe bei SQL-Abfragen (bin nämlich selbst überfordert). Liebe Grüsse. --Benutzer:Filzstift ✑ 08:37, 30. Mär 2006 (CEST)
[Bearbeiten] Betrieb eingestellt
Es ist schade, wenn wikisign nicht mehr läuft, aber einen Erhalt der Chronik und ein Link zu Alternativen wäre sehr wichtig gewesen. --PortalBot 14:10, 3. Apr 2006 (CEST)
- Alternative? Selber einen Dump downloaden...
- Chronik? Die ist weg.
- Ich habe den Service in meiner Freizeit ohne Entgeld betrieben und brav die doch etwas happigen Stromrechnungen bezahlt; daher möchte ich jetzt keine (indirekte) Kritik hören.
- Wenn das Ganze extern gehostet werden könnte, dann vielleicht, aber zu Hause mag ich keine 24h/7d laufenden Rechner mehr haben. --Benutzer:Filzstift ✑ 15:07, 3. Apr 2006 (CEST)
-
- Es gibt viele Hoster, die MySQL Datenbanken anbieten. Das Problem wird wahrscheinlich die DB-Groesse. Mein Anbieter bietet als Standardpaket nur bis zu 1,5GB zu 16EUR pro Monat, das ist auch schon ganz schoen teuer und wird wohl fuer mehr als eine Sprache ohne oldpages nicht reichen... Die einzige Chance wäre also ein kommerzieller Sponsor, der den entsprechenden Platz zur Verfügung stellt... Der Netzwerk-Traffic war wahrscheinlich nicht besonder groß, oder?
- Genau für so etwas Geniales gibt es den m:Toolserver. Wegen derr Popularität würde ich aber glecih an User:DaB. schreiben, dann geht es wahrscheinlich schneller. Grüsse,HD-α @ 20:16, 4. Apr 2006 (CEST)
- Ja, nur beim Toolserver hab ich einfach Angst, dass wikisign dann sämtliche Systemressourcen frisst (Queries v.a. der en-WP können mitunter Stunden dauern) --Benutzer:Filzstift ✑ 21:45, 4. Apr 2006 (CEST)