Hallo,
Antwort auf: wir haben in unserem Printready-Workflow folgendes eingestellt:
Farb/Graustufen bikubisch neuabtasten auf 800 dpi wenn über 801 dpi
und waren bisher der Meinung, damit keine Bilder kaputtzurechnen.
Ich habe die Settings schon seitens Herrn Kieslich erhalten und mich ein wenig darüber gewundert... aber der Reihe nach:
a) Es wäre sehr interessant, ob der Normalizer überhaupt so reagiert wie ein "gewöhnlicher" Distiller bzw. die CS-Anwendungen beim PDF-Export (oder Acrobats Optimieren Feature). Vielleicht zu dem Zweck mal einen Workflow so präparieren, daß ab 301 dpi auf 300 dpi heruntergerechnet wird, das hier im Thread schon zigmal erwähnte Downsample-Testbild.eps durchschieben und dann bitte hier berichten.
b) Unabhängig davon, ob beim Prinect-Workflow (oder generell mit dem Normalizer) dieser heimliche Fallback auf Kurzberechnung trotz eingestellter bikubischer Interpolation stattfindet oder nicht, ist es natürlich nie eine gute Idee, per Pixel-Interpolation eine Reduktion auf nicht mindestens die Hälfte der originalen Ausmaße zu forcieren, einfach bedingt durch die Beschränkungen von Interpolations-Algorithmen, die nur Nachbarpixel betrachten (was anderes wären welche, die auf Splines oder "fraktaler Interpolation" aufsetzen aber auch die werden in diesem Grenzbereich nur Artefakte bzw. ein unschärferes visuelles Ergebnis erzielen können einfach bedingt durch die Natur der Sache bzw. das fehlende Datenmaterial -- in diesem Grenzbereich müssen Bildinformationen aus dem Nichts heraus erfunden werden, was irgendwie nicht klappen kann)
c) Allerdings stellt sich die Frage, ob irgendwas, das erst jenseits 800 ppi eingreift, sich überhaupt visuell auswirken kann, d.h. selbst wenn ein leichter oder gar schwerer Qualitätsverlust beim Downsampling eintritt, dieser überhaupt wahrgenommen werden kann (von Fachleuten -- der typische Endkonsument, der auch 2mm Fehlpasser nicht "sieht", ist hier eh schon lange außen vor)
Letzten Endes wird hier vermutlich sogar das Rastersystem die entscheidende Rolle spielen, d.h. wie fein Details aufgelöst werden können. Wenn man mal die bei Prinect möglichen Rastersysteme HQS, IS und FM zugrunde legt, könnte ich mir nur bei IS (Dank Subrasterzellen [1]) und FM vorstellen, daß man visuell etwas mitbekommt, wenn erst ab 801 ppi auf 800 runtergerechnet wird. Bei HQS dürften solche Feinheiten wohl durch das Screening einfach so zugepappt werden (kann aber auch sein, daß ich hier nicht mehr auf dem Laufenden bin -- ich greife hier gespeicherte Erfahrungen bzw. Testergebnisse ab, die schon knapp eine Dekade her sind)
Antwort auf: Was wäre besser, wenn man denn die Datenmengen reduzieren will?
Ich stelle mal ketzerisch die Gegenfrage: Wie sollte sich durch die bisherige Workfloweinstellung die Datenmenge reduzieren? Immerhin betrifft das ja "nur" Bildobjekte mit effektiven Auflösungen ab 800 ppi, die noch dazu erst an einer Stelle heruntergerechnet werden, ab der die Daten sowieso nicht mehr extern übertragen werden sondern nur noch intern verarbeitet werden.
Oder verstehe ich was falsch und Bösmann gibt den Kunden Joboptions, die diese Downsampling-Settings von wegen "ab 801 auf 800 herunterrechnen" beinhalten? Dann wäre das was anderes...
Was immer wieder gerne in (PDF-)Workflows vergessen wird, ist ja die Mehrstufigkeit. Downsampling geschieht ja ggf. schon im ersten Schritt beim externen Datenanlieferer, der PDFs aufbereitet. Inwiefern sich nach diesem Schritt manche Settings dann im internen Workflow überhaupt noch auswirken, sei mal dahingestellt (mit den branchenüblichen Joboptions erzeugte PDF werden jedenfalls nie und nimmer Bildobjekte mit einer effektiven Auflösung höher 450 ppi enthalten)
Gruss,
Thomas
[1] Zum Thema Subrasterpunkte:
http://kaiser-edv.de/tmp/Raster-Systeme.png[/url]. Und weil hier öfter das Wörtchen "Prüfungsvorbereitung" fällt: [url]http://www.lepen.de/media/files/rasterte.pdf