Wikibooks:Elenchi generati offline
Questa pagina è inutilizzata o comunque obsoleta ed è mantenuta per scopi storici e di archivio. Le informazioni qui descritte sono superate e non devono essere considerate valide. Per favore, non modificare il testo sottostante senza avere prima avuto il necessario consenso. |
Questa pagina serve per coordinare gli elenchi di pagine da generare offline a partire da una copia del database di it.wikibooks. Lo stesso server di download consente di prelevare aggiornamenti periodici degli archivi (detti dump) di tutti i progetti Wikimedia.
Nota per chi vuole generare degli elenchi: A volte le tabelle dei link contengono diversi errori, per cui è consigliabile ricostruirle. Le istruzioni si trovano in fondo a questa pagina.
Richieste
[modifica sorgente]- Se vuoi fare una richiesta scrivi qui.
Elenchi
[modifica sorgente]Gli elenchi vanno in sottopagine di questa pagina. Si dovrebbe sempre inserire la query con cui si è ottenuto l'elenco nell'intestazione della pagina, per consentire agli altri utenti:
- di aggiornare periodicamente i dati
- di controllare la correttezza del metodo
- di sviluppare altri elenchi simili.
Si consiglia di eliminare man mano le pagine sistemate dagli elenchi, in modo da semplificare la collaborazione.
- Accentate HTML
- Center
- Copertine
- Discussioni anonime scadute
- Discussioni sole
- Immagini senza testo alternativo
- Libri
- Libri non linkati nei ripiani
- Libri senza alfabetico
- Libri senza categorie di Dewey
- Libri senza avanzamento
- Libri senza copertina
- Moduli senza categoria del libro
- Perché
- Redirect orfani
- Ricette senza redirect
- Sottopagine in ns0 senza pagina principale
- Tag font
- Tag sostituibili
- Titoli con due punti
Come generare un elenco
[modifica sorgente]- Installare MediaWiki con un nuovo database vuoto.
- Eseguire su terminale:
# portarsi nella cartella maintenance di mediawiki; il percorso /var/www/htdocs dipende dal web server in uso cd /var/www/htdocs/mediawiki/maintenance/ # scaricare l'ultimo dump wget http://download.wikipedia.org/wikibooks/it/pages_current.xml.bz2 # importare i dati # questa operazione può durare un po' di tempo bunzip2 pages_current.xml.bz2 | php importDump.php
- Note
- Lo script di importazione importDump.php è molto lento. Si consiglia l'uso dell'applicazione Java MWDumper che è sensibilmente più veloce.
- Alcune delle query negli elenchi di sopra sono obsolete. A partire dalla versione 1.5 di MediaWiki la tabella cur non esiste più, i dati delle voci sono distribuiti nelle tre tabelle page, revision e text.
Ecco come ottenere, con una query MySQL, il testo di una voce partendo dal titolo della stessa:
SELECT old_text FROM text
JOIN revision ON old_id=rev_text_id
JOIN page ON rev_page=page_id
WHERE page_title LIKE 'Pagina_principale'
AND page_namespace LIKE 0;
Ecco invece come ottenere i nomi (già attivi come Wikilink) delle pagine (di tutti i namespace) che rispondono ad una espressione regolare:
SELECT CONCAT("# [[{{subst:#if:{{subst:ns:", page_namespace, "}}|{{subst:ns:", page_namespace, "}}:}}", page_title, "]]") FROM page
JOIN revision ON page_id=rev_page
JOIN text ON rev_text_id=old_id
WHERE old_text REGEXP "miaregex"
ORDER BY page_title;
Ricostruire la tabella dei link
[modifica sorgente]Per ricostruire la tabella dei link, basta usare lo script refreshLinks.php (dopo aver installato MediaWiki e aver importato il dump, chiaramente).
cd /var/www/htdocs/mediawiki/maintenance/ php refreshLinks.php
Si può riavviare lo script dopo un'interruzione con
php refreshLinks.php - - <numero>
dove <numero>
è l'ultima ID segnalata dallo script prima dell'interruzione.