Nella mia “lunga” carriera di appassionato di tecnologia, sono stato
spesso preda di attacchi di luddismo di fronte ad avanzamenti della
tecnologia che ritenevo avessero più a che vedere con i bilanci delle
aziende tecnologiche che con le mie esigenze. Questa mia personale
inclinazione è stata senza dubbio incentivata da un’evoluzione nel
marketing dell’industria tecnologica, passato da uno stato primordiale,
basato sull’idea che un prodotto utile e con buone caratteristiche vende
più o meno da sé, a tecniche più raffinate, meticciate con logiche
proprie del largo consumo quando non della moda. In pratica dalle
pubblicità cartacee strapiene di dati tecnici e foto di bassa qualità
siamo arrivati a Ashton Kutcher – il cui cv include ruoli fondamentali
nel mondo tecnologico quali il fidanzamento con una stagionata Demi
Moore e la parte di Steve Jobs in una pessima biografia cinematografica –
eletto a product engineer di Lenovo.
Pur tenendo fuori queste amenità, alcuni stadi dell’evoluzione
tecnologica degli ultimi anni mi hanno lasciato con una sensazione di
parziale o totale inutilità (ad esempio la “febbre” del multicore di
qualche anno fa, dei 64 bit, i laptop touchscreen etc.).
Molte tecnologie sono arrivate sul mercato allargato ben prima che
esistessero le premesse per un loro pieno sfruttamento. In particolare
molto spesso abbiamo assistito ad evoluzioni “quantitative” della
tecnologia con vantaggi marginali decrescenti fino a diventare
impercettibili. La densità dei pixel per esempio: dopo che Apple ha
aperto le danze con i display “retina”, si è scatenata una lotta
all’ultimo pixel, arrivata a punti paradossali. Non a caso parlo di utilità marginale decrescente:
quale occhio riesce ad apprezzare la differenza tra 320ppi e 440ppi?
Quale utente riesce ad apprezzare la performance addizionale portata
dall’aggiunta di due core (senza contare la penalità sul clock a parità
di TDP)? E quanto costa tutto ciò? In termini di consumo energetico
oltre che di costo al consumatore finale?
Veniamo ad un esempio recente: il nuovo Mac Pro, lanciato poche
settimane fa, se non sempre porta un miglioramento prestazionale
rispetto alla generazione precedente, promette di riuscire a gestire con
un refresh rate ottimale, display ad altissima risoluzione per personal
computer (4K). Il prezzo che ha oggi l’accoppiata Mac Pro + display 4K è
talmente proibitivo (oltre 8000€) da rendere la scelta di un sistema
similmente configurato adatta ad un pubblico che sa di averne
assolutamente bisogno o ha soldi da investire nell’ultimo grido
tecnologico.
Non v’è dubbio tuttavia che nel giro di qualche anno i 4K saranno
appannaggio anche di display da 400€ esposti sui banconi della grande
distribuzione e che anche lo standard “retina” degli attuali Macbook Pro
verrà surclassato da risoluzioni ancora più insensate. Ebbene, a meno
di netti “upgrade” nella vista umana, ogni € speso nella ricerca e
sviluppo abilitante questa tecnologia e poi nell’acquisto della stessa,
sarà sprecato, così come lo sarà ogni Watt che questi dispositivi
inevitabilmente assorbiranno in più di altri equipaggiati con display a
risoluzione inferiore, ma che sono già oltre le capacità visive umane. E
quando anche l’energia di questi pannelli avrà eguagliato quella
assorbita dai pannelli precedenti, rimarrà facile ipotizzare che
l’affinamento del risparmio energetico della generazione precedente
avrebbe prodotto consumi netti migliori, e costi inferiori. Per muovere
più pixel ci vorranno sempre e comunque più elettroni.
È davanti a quest’ultima considerazione che si evidenzia a mio modo
di vedere la rotta di collisione fra gli interessi sostanziali –
depurati cioè dai lustrini del marketing – dell’utenza e quelli
dell’industria tecnologica, per i bilanci della quale è fondamentale
mantenere rapido il ciclo di obsolescenza dei prodotti anche in assenza
di evoluzioni tecnologiche che giustifichino il ricambio. In una
discussione da bar potremmo postulare che se per gli utenti finali la
curva di utilità tecnologica marginale si appiattisce all’avanzare
linearmente della tecnologia (incremento lineare del clock, dei PPI, dei
core, dei gigabyte), i produttori hanno interesse in una crescita
lineare delle specifiche tecniche, che alimenti i ricavi e mantenga
alti i profitti.
Un caso pratico: che beneficio avrei – a parità di altre condizioni
come qualità del pannello, resa cromatica, angolo visuale etc. – nel
sostituire a tipica distanza di lavoro il mio pannello 1680×1050 con un
pannello 2880×1800 o 4K? Nessuna – se vi interessano approfondimenti
visitate questo link.
Che vantaggio invece troverei nell’utilizzare un sistema risparmia
energia con un display 1680 iper-ottimizzato accompagnato da una GPU
proporzionata alla risoluzione? Alcune ore di batteria, magari quelle
che mi servirebbero in quel lungo viaggio in aereo o a completare una
giornata di lavoro intensivo senza dovermi preoccupare di avere
l’alimentatore al seguito.
Fonte
I concetti espressi nell'articolo sono di una banalità disarmante. Ciò che stupisce maggiormente, tuttavia, è il fatto che su una testata mainstream come HWUpgrade possano risultare quasi rivoluzionari.
Nessun commento:
Posta un commento