L'intelligenza artificiale spiegata in modo semplice. Mantenere una visione d'insieme nella massa, ad esempio Big Data? Questo è possibile solo se si seguono determinati schemi o ci si lascia guidare.
Un esperimento su te stesso: hai una certa immagine nella tua testa. Oggi dovrebbe essere un mobile rosso con maniglie bianche. Cosa fai?
Nella ricerca di Google "REDI REDI, MANUSI BIANCHI".
Prodotto? Modesto.
Tentativo 2: inserisci "Red Cabinet, White Hands" nella ricerca di Google.
Il risultato è già migliore, ma potrebbe sicuramente essere ancora migliore.
Il primo passo nella programmazione si fa con la ricerca su Google. La raccolta delle query di ricerca e la loro conversione in algoritmi e codici costituisce la rete neurale.
L’apprendimento automatico, come mostrato nel grafico in alto, non è quindi una cosa da implementare rapidamente. Ci vuole molto tempo e lavoro. Ciò spiega anche i corrispondenti costi di sviluppo. Ma se si considera che l’AI non ha ferie, pensione o altre perdite naturali, le cose sembrano completamente diverse.
Ma il mobile rosso con manici bianchi è ancora aggiornato domani? Si adatta ancora allo stile di vita? I gusti cambiano. Questo è esattamente dove arriva l'apprendimento profondo. Per rimanere con il nostro esempio: con l'ulteriore ricerca, l'IA impara e, in base agli altri argomenti che sono interessati a come il tuo comportamento di ricerca è cambiato e indipendentemente, sviluppa nuovi algoritmi per "prevedere" che un gabinetto verde con maniglie blu potrebbe essere interessato alla cucina in un anno.
Terribile? Per alcuni questo è spaventoso. Ma in realtà non lo è. La paura dell’ignoto ci gioca brutti scherzi. Se chiedessimo a un gruppo di persone cosa potrebbe interessarti in TV domani, otterresti una serie di risposte. Non uniforme. Ora, come decidi quale proposta accetteresti? È l'apporto professionale o l'aspetto attraente della persona in questione?
È così che è con l'IA. A seconda di quanto debole o forte la rete neurale sia stata "programmata", l'affermazione è di conseguenza. Si tratta di analisi dei modelli che dovrebbero aiutarci a prendere una buona decisione. Non per controllarci. Perché se non creiamo analisi di esempio nei big data, andiamo senza pietà. E questo è il vero scenario horror.