[LinuxOB] [OT] Textkomprimierung
Daniel Dombrowski
daniel.dombrowski at linuxob.de
So Dez 28 23:41:02 CET 2003
On 2003.12.28 20:45, Alexander Müller wrote:
> DD> Was spricht denn dagegen, die Dateien komplett die Datenbank zu
> DD> schieben und dann so Sachen wie die MySQL-Volltextsuche zu
> verwenden?
> DD> H?tte auf jeden Fall den Vorteil, dass du die Daten nur einmal
> DD> speichern m?sstest. Und es w?re gew?hrleistet, dass du auch
> DD> Suchprozeduren verwendest, die tendenziell performanter sind als
> DD> irgendwas selbstgebautes - und fehlerfreier vermutlich auch.
>
> Kommt nicht in Frage. Die Texte werden insgesamt sicher ueber die
> 1 GB Grenze (allein in ASCII) gehen.
> 1 GB Text zu durchforsten dauert eindeutig zu lang.
Naja, das macht ja auch eine Art Indexing. Genauere Performance wäre zu
testen, aber das ist schon auf größere Datenmengen ausgelegt.
Details:
http://www.mysql.de/doc/de/Fulltext_Search.html
Abgesehen davon weis ich ja nicht, was du vor hast. Aber 1 GB empfinde
ich nicht als viel. Und schon gar nicht, wenn das nur Daten sind, die
auf der Platte liegen. Selbst wenn eine Indizierung nochmal die gleiche
Menge brauchen würde - warum nicht?
> DD> In jedem Fall stell ich es mir aber nicht sonderlich performant
> vor,
> DD> wenn du einen komprimierten Cache erstellst und den jedes mal
> wieder
> DD> entpacken musst ... da kannst du wohl wirklich eher jedesmal alle
> DD> Dateien ?ffnen.
>
> Nein der Cache wird nicht dekomprimiert...
> Der Suchterm wird komprimiert und mit dem Cache verglichen,
> daher die Schwierigkeit.
> Dateien oeffnen wuerde nicht gehen, da Dateitypen wie pd und psd
> moeglich sind.
Was sind denn pd und psd für Dateien?
Gruss
Daniel
Mehr Informationen über die Mailingliste linux