Perchè una scansione OCR a 300 dpi è uno Standard?

Scansionare a 300 dpi (punti per pollice) non è uno standard ufficiale per la scansione OCR (riconoscimento ottico dei caratteri), ma è considerato da tutti quale standard indiscusso.

Alcune persone pensano sia possibile acquisire con un dpi inferiore, ad esempio 200 dpi, per poi utilizzare il software dello scanner per aumentare la risoluzione tramite interpolazione. Tuttavia, bisogna ricordare che l’interpolazione in realtà non fornisce un beneficio significativo per l’OCR. Di solito aumenta il formato dell’immagine inserendo altri pixel comportando però una perdita di chiarezza e di qualità. Quindi è sempre consigliato un utilizzo almeno a 300 dpi.

I più importanti OCR e la maggior parte delle aziende sviluppatrici di software consigliano la scansione ad una risoluzione minima di 300 punti per pollice per un’estrazione dei dati efficace. In realtà molti di questi hanno l’impostazione predefinita a  300 dpi. In altre parole, per ogni centimetro quadrato di carta, lo scanner cattura 300 punti in orizzontale e 300 punti in verticale per un totale di 90.000 punti (300 X 300 = 90.000 punti per pollice quadrato). A 200 dpi si avrebbero “solo” 40.000 punti per pollice quadrato rispetto ai 90.000. Un bella differenza.

Quindi, per rispondere alla domanda iniziale, una scansione a risoluzione più elevata comporta una maggiore accuratezza dell’OCR. Poiché nella tecnologia OCR è il computer che analizza il carattere digitalizzato, più sono i punti per pollice maggiore sarà il livello di accuratezza del computer.

Di seguito è riportato l esempio di un problema causato dall’insufficienza di punti per pollice . Il secondo carattere è un B o un 8?

Why is OCR at 300 dpi a Standard?

Potrebbe piacerti anche Altri di autore