In futuro l'AI non sbaglierà più a indicare le isole, a meno che chi le controlla non vorrà che sbagli.
è proprio questo il punto... con le isole è chiaro che si può verificare, ma per moltissimi altri temi ben più complicati come la mettiamo? chi riuscirà ad affermare un errore? e chi gli crederà? c'è il concreto rischio di una deriva che diventa ordine sociale predefinito. E ne parlo con cognizion di causa, perchè in programmazione stiamo già vedendo questo da anni.
La soluzione potrebbe essere di non affidarsi ad una AI, ma ad una molteplicità di esse con "controllori" in conflitto fra loro, come si dovrebbe, o si sarebbe dovuto, fare con i media. Poi accadrà la stessa identica cosa: ognuno sceglierà quella che più è allineata e negherà tutto il resto, anche se evidentemente vero.
Ma la colpa di ciò non è dello strumento. Il punto è che la massa preferisce evitare i dubbi ed ama le certezze, anche quando ciò va contro i suoi interessi nel medio lungo termine, perché ha solo memoria di breve ed ancor meno capacità di proiezione a lungo termine.
Gli accordi, in informatica ancora peggio, non funzionano. Persino su Linux fecero la santa alleanza, tutti i nomi più famosi uniti per fronteggiare Microsoft. La roba è durata uno sputo di tempo, se non ricordo male RedHat si levò facendo crollare tutto come un castello di carte malferme.
Per quanto ci creda meno di zero, l'unica soluzione è la politica, che in questo caso va detto si sia mossa o quanto meno agitata per tempo. Di solito si svegliano qualche era geologica dopo.
Sulla politica ci conto molto meno di zero: d'altra parte sono anarchico.
Questa volta si sono mossi per tempo solo perché hanno capito in fretta che dovevano farlo se volevano avere voce in capitolo per essere fra i controllori.
Ma sinceramente affidarmi ad AI controllate dalla politica è l'ultimo dei miei desideri.