Se tutto cambia, come si può cambiare?

Wikipedia, l’enciclopedia aperta e gratuita in rete, la domanda di sicurezza, le mutazioni dei media sono solo tre esempi emblematici dell’ondata di innovazione tecnologica. Come e in quali settori strategici dovrebbero reagire i protagonisti attivi, gli stakeholders, costretti a sempre più veloci decisioni e assunzioni di responsabilità?

di Angelo Luvison

La conoscenza e le idee sono libere e costituiscono l’unico bene che si può condividere veramente senza che diminuiscano di valore, anzi il sapere, se non imprigionato o costretto, si diffonde in modo esponenziale con contenuti «certificati» o validati dagli appartenenti alla comunità stessa, che partecipano, direttamente e senza intermediari, tanto come produttori quanto come fruitori. Questo è il leitmotiv del sapere democratico in Rete: esempio emblematico è oggi Wikipedia, l’enciclopedia su Internet, disponibile in decine di lingue, aperta e dinamica, e a cui in ogni momento chiunque può aggiungere voci, spiegazioni, documenti, collegamenti. I suoi contenuti possono essere distribuiti liberamente o tradotti senza vincolo di diritto d’autore. Il progetto è democratico, perché sviluppato dal basso da chiunque voglia partecipare ed è in continua evoluzione. Tutto questo in conflitto con il Digital Rights Management (DRM), il copywright, i diritti d’autore, i sistemi di controllo. Ma quali sono le regole che stanno alla base di certi fenomeni imprevedibili a priori e che sembrano quasi germinare dal nulla? Le considerazioni qui di seguito proposte sono tratte, in parte, da due capitoli di L’ICT trasforma la società (Franco Angeli, 2005), a cura di FTI-Forum per la Tecnologia dell’Informazione.

RETI SOCIALI COME DIGITAL LIFE AGGREGATORSLa forza del networking, dell’operare cioè in una rete di comunicazioni, sta nel creare valore e opportunità di contatti, nel condividere conoscenze in comunità allargate. Per le reti, siano esse fisiche (o tecnologiche), logiche, sociali, vale infatti la legge (intuitiva ma anche dimostrabile matematicamente) dell’effetto-rete. Essa ci dice che il valore del networking per una comunità avente interessi o valori omogenei cresce esponenzialmente con il numero dei suoi componenti: la rete fa da digital life aggregator, da catalizzatore di vita digitale.

è però anche vero che le relazioni interpersonali non si possono estendere ad infinitum; in pratica persino gli ipertecnologici teenagers d’oggi mostrano un limite finito alla capacità di sostenere rapporti nella cerchia delle loro conoscenze. Gli economisti direbbero che scatta la legge dei ritorni decrescenti a mano a mano che si aggiungono utilizzatori in rete, poiché non tutti possono beneficiare allo stesso modo delle potenzialità relazionali.

Una rete fisica è un formidabile generatore di traffico – scambio di messaggi di tutti i tipi – e quindi di introiti per il detentore della stessa. Ogni operatore di telecomunicazioni, ex monopolista ed ex pubblico, oppone, ovviamente, strenue difese legali alle formulazioni neo e ultraliberiste sull’unbundling (separazione) a livello societario e proprietario della sua rete di trasporto.

Per la proprietà di crescita esponenziale, le reti sono risorse fondamentali. Ed è più saggio metterle insieme che esternalizzarle: allorché le loro dimensioni crescono, il valore generato si amplifica e l’impresa o i consorzi partecipanti acquisiscono anche maggiori quote di mercato. Questa proprietà può essere sfruttata nell’offerta di servizi o applicazioni di rete in una strategia d’impresa logica e coerente.

L’effetto-rete costituisce in definitiva, anche, un formidabile motore dell’innovazione non solo tecnologica ed economica, ma anche sociale.

I meccanismi di espansione possono essere interpretati facendo ricorso all’«effetto schiuma», teorizzato da studiosi di fenomeni sociali di massa, effetto che consente di spiegare perché un’idea, un oggetto, un’innovazione tecnologica, per meccanismi simili a forme di contagio epidemico – pandemico, piace dire oggi – riescano o no a superare il punto critico arrivando a chiari grandi successi ovvero a clamorosi fallimenti. Esempi dell’uno o dell’altro caso sono: il Picturephone, il Betamax contro il VHS, il fax, il World Wide Web e l’email, il GSM (Global System for Mobile Communications) e l’SMS, le reti peer-to-peer, il diario on line (o blog, crasi di Web log), i libri di Dan Brown o sul maghetto Harry Potter, e la già citata Wikipedia.

Il punto critico di Malcom Gladwell (Rizzoli, 2000) porta motivazioni teoriche e un senso razionale all’insieme di quegli eventi che ingenerano «l’effetto schiuma» della società, per cui diventa di colpo visibile uno stato di effervescenza senza che nessun vero cambiamento sia avvenuto a livello della struttura sociale, economica, e persino politica, nella comunità locale o nazionale interessata. Il «ronzio comunicativo», il «passaparola», il «tam tam», la «vox populi», si fanno tecnica e strumento di marketing per creare reti di consumatori, inducendo comportamenti imitativi.

Il passaparola da link a link, tramite blog, è per esempio lo strumento principe nel fenomeno della mobilitazione di folle lampo (flash mobs) per manifestazioni volanti e improvvise. Anche la politica è soggetta all’effetto schiuma: i quasi quattro milioni di elettori delle primarie dell’Unione il 16 ottobre 2005 ne sono un esempio.

Ma diamo una logica al fenomeno dell’effetto schiuma.

Punto primo: idee, prodotti, messaggi e comportamenti si diffondono proprio come fanno i virus. Componente fondamentale per raggiungere il punto critico è il fattore presa, per esempio di un motto pubblicitario di successo. Infatti: «Se non vi ricordate quanto vi dico, perché mai dovreste cambiare modo di comportarvi, comprare i miei prodotti o vedere il mio film?»

Punto secondo: piccoli cambiamenti possono avere effetti straordinari. Il punto critico o di soglia è un momento molto delicato. I mutamenti che avvengono proprio in corrispondenza di esso possono generare effetti notevoli sia in crescita sia in regressione.

Punto terzo: la regola del potere del contesto sostiene che gli esseri umani sono molto più sensibili all’ambiente in cui vivono di quanto non possa sembrare: perché mai ci comportiamo in modo civile, educato, rispettosi delle convenzioni a Lugano, ma ce ne scordiamo poco prima della frontiera di Chiasso?

Le tre regole, ossia la legge dei pochi, il fattore presa e il potere del contesto, aiutano a comprendere il senso delle epidemie sociali, chiarendo innanzi tutto in che modo sia possibile raggiungere un punto critico. Così è stato per la diffusione dei fax e poi per quella di Internet e dei telefoni cellulari, così è anche per un capo di vestiario, per un particolare taglio di capelli o per molti programmi televisivi di successo.

Quali sono però gli agenti o attori che ci aiutano a comprendere come funzionino le regole, come queste si radichino in pratica? La società è composta grossomodo da due categorie, gli «innovatori» o early adopters e la «maggioranza». Nella nostra, plasmata dalla moda e permeata di pubblicità, non contano più le maggioranze silenziose, bensì, le minoranze rumorose. Sono loro che possono determinare i possibili punti di svolta, rovesciare la direzione di un avvenimento, innescare una serie di cambiamenti a catena. La «legge dei pochi» in particolari condizioni, e in precisi contesti, decide per tutti.

SICUREZZA NELL’ERA DI INTERNET

«A questo mondo non c’è niente di certo, a parte la morte e le tasse», diceva Benjamin Franklin. Anche l’impero del silicio non appare più una fortezza inviolabile di fronte ad attacchi sistematici e imprevedibili, ma va difeso con le armi dell’innovazione tecnologica, con la ricerca, con gli investimenti sul capitale della conoscenza, con l’attuazione di strategie di security e di politiche che favoriscano l’integrazione di know-how e di esperienze. Quella della sicurezza è una frontiera mobile, che si evolve agli stessi ritmi di sviluppo della società. è svanita l’illusione (in gran parte alimentata dall’eccezionale progresso e dalle mirabolanti conquiste scientifiche nel secolo passato) che nella Società dell’Informazione potesse rimanere immutato il tradizionale confine che distingueva libertà e sicurezza. La categoria della riflessione ha quindi ripreso il sopravvento, contribuendo ad allentare l’atmosfera di eccitazione diffusa, determinata dall’esplosione di nuove tecnologie.

Con «sicurezza informatica» s’intende, in particolare, l’insieme delle misure tecniche e organizzative volte a garantire la totale protezione delle informazioni e in particolare: l’autenticazione dell’utente, la disponibilità, l’integrità e la riservatezza delle informazioni e dei servizi gestiti ed erogati in modo digitale. La sicurezza informatica pone il suo fondamento nel preservare le informazioni da ogni tipo di minaccia per potere garantire continuità di business, minimizzando i danni causati da attacchi informatici e malfunzionamenti delle infrastrutture informatiche e massimizzando il ritorno degli investimenti e le opportunità di business.

I ripetuti gravi attacchi subiti a più livelli dal sistema delle reti della comunicazione mondiale, oltre a determinare un innalzamento del livello di attenzione, hanno richiamato stati, governi e imprese ai principi della «responsabilità totale» e della security governance. La governance della sicurezza costituisce una mission, per chi opera ai vari livelli decisori, che ha il sapore della sfida, della scommessa, della conquista. Governance che consiste nel portare ordine nel disordine, sicurezza dove c’è timore, stabilità nei sistemi fondati sul disequilibrio, semplicità in un contesto sociologico e antropologico, che sembra ossequiare e premiare un unico paradigma: quello della complessità.

Le potenzialità negative del «contagio informatico» sono stupefacenti. A metà degli anni Ottanta un virus avrebbe impiegato 15 anni per colpire tutti i mezzi informatici del pianeta; i virus di oggi sono in grado di infettare il cuore di decine di milioni di computer in un secondo. Significa che tutto quello che succede nel mondo biologico al confronto impallidisce. Di fronte a una tale escalation la reazione di chi governa l’impresa o l’istituzione deve essere: programmata ma pronta, razionale, bilanciata, flessibile.

Nell’azienda moderna ogni iniziativa per essere efficace deve fondarsi sull’azione integrata di tutte le strutture della catena del valore. Non può esistere alcuna protezione adeguata in assenza di un buon criterio organizzativo che comprenda: politiche, linee guida, definizioni di ruoli e responsabilità. E bisogna sempre più porre l’attenzione sui reati di competitive intelligence e di spionaggio di informazioni, che mirano alla sottrazione di dati sensibili e di valore strategico.

Connettività, portali, infrastrutture, tante le aree da presidiare con un’adeguata politica della sicurezza, che passa attraverso la realizzazione di un autentico global system, in cui l’attenzione per i fattori tecnologici e per la formazione culturale degli operatori dell’ICT (Information and Communications Technology) devono correre di pari passo. Mentre siamo impegnati a creare dei vaccini per l’influenza, ci accorgiamo che i virus hanno già cambiato il loro DNA.

Aspetto ancor più inquietante è la possibilità, grazie a tools automatizzati, che anche i più giovani, i novizi dell’informatica hanno di sferrare azioni illecite. Questo alert deve farci capire una volta di più che la sicurezza assoluta non esiste. Occorre dare per scontato che i nostri avversari conoscono meglio di noi le infrastrutture e che soprattutto non hanno limiti né barriere per sferrare la loro offensiva. La biometria si avvia a essere un ulteriore strumento per risolvere i problemi di certificazione e autenticazione degli accessi e per regolare il traffico generato dal popolo sempre crescente degli internauti.

L’approccio alla security governance deve essere oggi completo, olistico, sistemico: è finito il tempo in cui si poteva reagire solo con la patch, non bastano i cerotti contro il fumo.

Che conclusione si può trarre dagli scenari delineati nelle due sezioni precedenti? Che abbiamo due mondi in competizione. Da un lato, le reti peer-to-peer, le ad hoc networks, il grid computing, la miriade di sensori e dispositivi intelligenti (onnipresenti, interconnessi e intercomunicanti), l’open sofware, gli hackers, la competitive intelligence, le licenze di distribuzione CC (Creative Commons, altrimenti detti «copywright dal volto umano»), la cultura libera. Dall’altro, la sicurezza e la privacy, la biometria, la tecnologia RFID (Radio Frequency IDentification), l’IPR (Intellectual Property Rights) o i diritti digitali (DRM, Digital Rights Management), gli standard, le regole, i sistemi di controllo e sicurezza. Il punto di equilibrio fra i due mondi è dinamico e si ridefinisce costantemente, forse in modo sempre meno eterodiretto. A proposito di DRM, colpisce la vicenda recente di una multinazionale della musica il cui programma antipirateria nei CD prodotti si è rivelato difettoso e ha danneggiato i computer di ignari utilizzatori. Il danno non è stato causato da maliziosi hackers, bensì da una autorevole (e autoritaria) major che ha utilizzato una tecnologia di controllo rivelatasi pervasiva e troppo invadente.

RITARDI E DEBOLEZZE: ANALFABETISMO NUMERICO E IGNORANZA DEL RISCHIO

«Che in un mondo che sembra ormai alfabetizzato e numerizzato tante persone si ostinino a giocare al Lotto o a cercar di leggere nel Passato le tracce inesistenti di cose che (dicono loro) si verificheranno inevitabilmente nel Futuro mostra che il mondo poi tanto alfabetizzato non è» ( Roberto Casati e Achille Varzi). Il punto già sollevato è che la certezza è un’illusione: l’alternativa non è fra certezza e rischio, bensì fra incertezza e incertezza. Può migliorare l’insight, la comprensione del rischio, che è la quantificazione dell’incertezza residua secondo probabilità; ma la certezza di per sé corrisponde a un target asintotico e, quindi, irraggiungibile.

Moltissimi sono i casi di consenso diffuso, ma disinformato che testimoniano l’ignoranza numerica e statistica: dai giochi d’azzardo ai test medici, dalle mistificazioni dei media alla quantificazione delle nostre paure. Essi danno luogo alla debolezza concettuale nota come «percezione annebbiata (biased) del rischio», della quale forniamo alcuni esempi significativi.

L’ignoranza dei numeri. Secondo una stima dell’Istituto di Medicina, negli ospedali americani fra i 50 e i 100 mila pazienti muoiono ogni anno per errori medici e incidenti iatrogeni, quindi, evitabili. E ancora: in Italia le vittime del tabacco per cancro polmonare e disturbi cardiaci sono annualmente alcune decine di migliaia, quelle per incidenti automobilistici circa settemila. Il terrorismo ha finora prodotto globalmente un numero di vittime decisamente inferiore.

Il paradosso del razzista. In una città vive un nero ogni dieci abitanti. Un uomo denuncia di essere stato aggredito da un nero. La polizia simula più volte la scena, nelle stesse condizioni di luce, con persone diverse nella parte dell’aggressore. Nell’80 per cento dei casi l’uomo indica correttamente se il simulatore è bianco o nero. Ma nel 20 per cento si sbaglia. L’ovvia domanda è: quanto è giustificata la sua accusa che il colpevole sia nero?

All’80 per cento, sembra essere l’altrettanto ovvia risposta, che invece è sbagliata. Per fare una valutazione corretta bisogna considerare che in città c’è il 10 per cento di neri. Quindi, su 100 persone 10 sono nere. Di queste 10, due verranno identificare erroneamente come bianche e 8 correttamente come nere. Dei rimanenti 90 bianchi, 18 (pari al 20 per cento) verranno identificati erroneamente come neri. La probabilità che l’aggressore sia nero è dunque solo di 8/26 (cioè poco più del 30 per cento); infatti, l’aggredito identifica 26 persone come se fossero neri, ma solo 8 lo sono effettivamente.

I mercati finanziari. Tutto l’edificio costruito da consulenti e analisti finanziari si basa sul modello della curva a campana (distribuzione di probabilità gaussiana) dei prezzi con sofisticazioni matematiche crescenti: valor medio, varianza, formula di Black-Scholes.

Nella finanza della curva a campana, la probabilità di forti cali è così remota da svanire in lontananza, per cui va ignorata. Stando ai suoi modelli, il crollo della borsa del 19 ottobre 1987 di quasi il 30 per cento potrebbe accadere una sola volta in miliardi di anni. Nella finanza, i forti cali – meno probabili di quelli lievi, ovviamente – rimangono una possibilità concreta e calcolabile. Un altro aspetto del mondo reale di cui la finanza deve tenere conto è che i mercati conservano la memoria degli andamenti passati, in particolare dei giorni volatili, e si comportano di conseguenza. La volatilità genera volatilità, capita a raffiche (bursts) e grappoli (clusters). In molti casi, gli andamenti finanziari non seguono le previsioni indotte della finanza della curva a campana, che domina tuttora il discorso sia degli accademici sia di tanti giocatori nei mercati finanziari. Ed è proprio in questo modo che Robert Merton e Myron Scholes con il loro hedge fund LTCM (Long Term Capital Management) hanno «bruciato» i soldi degli investitori nel 1998. E dire che Merton e Scholes furono insigniti del Nobel nel 1997. L’edificio così costruito è certamente elegante, ma poggia su sabbie mobili.

Dopo una diagnosi deve seguire la prognosi. E allora, dove cercare possibili soluzioni?

RICERCA, INNOVAZIONE, FORMAZIONE

Il dire: «Le risorse si possono comprare; il capitale si può prendere in prestito; la conoscenza, o know-how, deve essere sviluppata» è diventato quasi un truismo, peraltro sostanzialmente disatteso nella pratica. L’Italia soffre di delocalizzazione non solo dei prodotti (outsourcing) ma anche delle idee, delle capacità (offshoring). L’offshoring dell’innovazione tecnologica ci deve preoccupare forse di più di quanto non ci preoccupi l’outsourcing delle produzioni (si veda Alessandro Ovi, Offshoring technology innovation in «Technology Review», edizione italiana, n. 5/2005. E inoltre: l’Italia soffre sì della fuga dei talenti e dello scippo dei cervelli, ma altrettanto, e forse più dannosi sono lo spreco, la non valorizzazione delle intelligenze che saprebbe esprimere con le sue risorse umane più qualificate, spesso poco o male utilizzate.

Quindi «conoscenza» è la parola-chiave, anche se abusata, per comprendere le ragioni del successo o dell’insuccesso di un paese. Noi, però, da parte nostra dobbiamo: saper esprimere capacità di innovare, saper vincere con la qualità dei prodotti, dei servizi, dei processi. Per competere non basta tagliare l’IRAP, i buoni prodotti servono più delle riforme. Quindi più ricerca e innovazione, più formazione qualificata. E il divario tra opportunità e realizzazioni va considerato come un invito all’imprenditorialità. Così come una volta l’Italia era capace di fare.

Oggi purtroppo la ricerca è poca e «a pioggia»; anche i brevetti sono pochissimi: l’Italia esce perciò dal futuro. Le cosiddette attività strategiche – formazione e ricerca – sono le prime a essere ridimensionate nei momenti di difficoltà di un’azienda, per cui tali difficoltà non possono che amplificarsi e generare vere e proprie criticità.

L’efficienza va cercata nel trinomio ricerca di base, ricerca applicata, innovazione, trinomio che non vede confini netti al suo interno. Ciò che ha fatto e che fa forti gli Stati Uniti è l’insieme dato da creazione di conoscenze, applicabilità di esse, cultura del brevetto all’interno delle università (il che da noi è al primo stadio), una mentalità che incoraggia il rischio (anche in termini di reperibilità di finanziamenti) e una invidiabile libertà dai legami burocratici.

è cliché comune presentare la ricerca come se questa potesse essere svolta lungo un continuum che va dalle teorie di base allo sviluppo sperimentale attraverso la ricerca applicata, arrivando infine all’innovazione, con obiettivi pratici crescenti.

L’impostazione precedente riflette il paradigma «gentil-crociano» delle «due culture» separate e distinte, che da quasi cent’anni stabilisce una precisa, immutabile gerarchia di valore: prima c’è l’arte, la letteratura, la poesia; segue a debita distanza la scienza purché «di base»; s’ignorano, o sono a distanza abissale, l’ingegneria, la tecnologia, tutto quanto richiama l’applicazione: le due culture, in realtà, diventano tre nel nostro paese. Anzi la tecnologia spesso non è neppure considerata fare parte della cultura, nell’accezione più stretta del termine. Per la verità in altre parti, almeno dell’Europa continentale, la mentalità non è poi tanto diversa. Un esempio per tutti: «(…) l’effetto della rivoluzione scientifica, economica e industriale, che dura ormai da trecento anni e che ci ha a poco a poco sopraffatti, è tale che ci toglie spazi sempre più ampi per la libera creazione. La valanga di informazioni che ci cade addosso ci rende in un certo senso schiavi e ci impedisce di riflettere sul significato dell’esistenza», diceva Hans Georg Gadamer ad Anacleto Verrecchia in un colloquio del 1987 riportato in Incontri viennesi (UTET Libreria, 2005).

Un modello più adeguato per cercare di recuperare spazi di competitività dovrebbe vedere la ricerca applicata non disgiunta da quella di base poiché le ricerche veramente importanti sono contemporaneamente tanto di base quanto applicate. Infatti, mentre consentono un avanzamento nella comprensione dei fenomeni fondamentali, sono altresì motivate e contribuiscono alla soluzione di importanti problemi pratici.

Negli ultimi 40 anni, l’ente americano per i progetti di ricerca avanzati della difesa (DARPA) e la National Science Foundation (NSF) hanno promosso lo sviluppo della scienza e delle applicazioni nell’ICT – di cui Internet non è il solo risultato, ancorché il più noto – lanciando una miriade di progetti strategici con massicci investimenti destinati in modo selettivo ad aziende e università. L’output, i risultati visibili di questa strategia, sono prodotti, servizi e capitale umano, che dimostrano quanto sia arbitrario innalzare muri divisori non solo tra letteratura e scienza, ma anche tra scienza e tecnica. In paesi non certamente arretrati, la locuzione inglese science and engineering costituisce di norma un tutt’uno.

Anche noi possiamo vantare un bell’esempio, ahimè rara avis, di questo tipo: le ricerche, negli anni Sessanta, del Nobel Giulio Natta su polimeri e materie plastiche.

Questi sono i progetti che Pirelli definisce di blue sky o quelli che il presidente del CNR, Fabio Pistella, chiama di curiosity driven e la Confindustria di alta tecnologia e che possono dare corpo a una visione, a un disegno strategico tanto di un singolo comparto quanto dell’intero paese.

Nello stesso spirito, l’innovazione può essere intesa molto semplicemente come l’insieme dei «cambiamenti utili» per i consumatori e altri beneficiari.

Per lo sviluppo del capitale umano d’alto livello sono necessarie istruzione e formazione. I prodotti e i processi industriali infatti sono sempre più complessi e a elevato valore aggiunto. In questo scenario globale lo sviluppo costante di skills e capacità professionali è un prerequisito necessario per ritornare a essere competitivi. La formazione continua nell’intero ciclo di vita non è un optional ma un must, in discipline sempre più articolate e trasversali, quali: 1) organizzazione, comunicazione e risorse umane; 2) business, economia e marketing in un contesto globale; 3) nuove tecnologie di prodotto e di processo; 3) aspetti legali, normativi e sociali.

Parallelamente, è necessaria una politica tecnologica per decidere, in particolare, dove si voglia andare nel paese con le tecnologie dell’informazione e delle telecomunicazioni, cioè con l’ICT. A titolo esemplificativo, ricordo che uno studio, condotto dall’AICA (Associazione Italiana per l’Informatica e il Calcolo Automatico) con la Bocconi, ha quantificato il vantaggio economico della diffusione dell’informatica in un risparmio per il «sistema-paese» di 15,6 miliardi di euro l’anno, praticamente l’entità di una finanziaria che potrebbe essere destinata ad altro.

L’IMPEGNO SOCIALE E CIVILE DEGLI STAKEHOLDERS

Imprese, manager, professionisti, intellettuali, accademici, opinion makers che qui definisco collettivamente stakeholders o classe dirigente per indicare quanti hanno autorità e autorevolezza – come singoli componenti e come soggetti collettivi – sono potenzialmente gli attori-chiave, i protagonisti attivi del cambiamento. Oltre al settore dell’economia, devono dare anche un contributo al tessuto sociale, non tanto perché questo porta a un ritorno di immagine ad personam o alle loro istituzioni e aziende, quanto piuttosto perché il trasferimento all’esterno delle conoscenze agevola il progresso, l’avanzamento, la crescita socio-economica, in particolare del territorio in cui operano.

Direi di più: la classe dirigente, in quanto élite costituita da operatori culturali e portatori di know-how, ha i mezzi e il dovere di confrontarsi in una prospettiva contemporaneamente locale e globale (o «glocale»). E questo si può concretizzare con un commitment (impegno con assunzione di responsabilità) non puramente simbolico – individualmente e come categoria – dedicato alla concezione e alla realizzazione di progetti strategici a beneficio della collettività.

Per esempio, un manager d’impresa, pubblica o privata, deve essere in grado di dominare le logiche strategiche, di business e tecnologiche con visione e modelli sistemici (ecosistemici, in una prospettiva completa), non solo lineari, mirati all’innovazione di prodotti, servizi, processi. Tutto ciò nell’ambito di codici di comportamento etico e di responsabilità verso la società civile nel suo complesso. Per esempio, la distinzione tradizionale dei media anche se tecnologicamente obsoleta – il cosiddetto meltdown dei media tradizionali e dei loro mercati – è ancora sociologicamente importante e utile per capire che in ogni momento si apre una serie di possibilità diverse al di là di scenari noti e già metabolizzati.

Related Posts
Total
0
Share