Utente:Chiara Pesticcio/Sandbox

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

Il futuro delle idee

Il futuro delle idee è un libro scritto da Lawrence Lessig, incentrato sulle conseguenze che l'inasprimento in atto del regime di proprietà intellettuale determinerà sulla nostra libertà e sugli assetti regolativi della Rete. L'autore spiega che internet è nata come spazio libero, in cui la cultura e l'informazione possano liberamente fluire. Questa libertà però si sta, giorno dopo giorno, restringendo sia da un punto di vista tecnico, sia da un punto di vista legale. Il rischio è il ritorno a un'età medievale in cui pochi gestori dei diritti impongono le proprie regole a tutto il mondo.

Parte prima: Dot.Commons[modifica | modifica wikitesto]

"Gratuito"[modifica | modifica wikitesto]

Il primo capitolo del libro “il futuro delle idee” di Lessig, parte da alcuni esempi sul cinema per far meglio comprendere la legge copyright. Un regista, per realizzare un film, deve “liquidare i diritti”. Un film che è basato su un romanzo protetto da copyright, deve ottenere il permesso dal titolare dei diritti. Tutto ciò che appare nei film, come poster su una parete o una semplice lattina di coca cola devono ottenere il consenso da alcuni avvocati, i quali valutano se inserire o no determinati oggetti. Ma perché creare una tale regola? E perché appesantire e limitare il processo creativo? La prof.ssa Jessica Litman ha scritto che la legislazione sul copyright abbonda di regole e la gente comune valuterebbe sciocche alcune di queste. La rivoluzione tecnologica, dunque culturale, ha prodotto conseguenze che si stanno intorno. Tale rivoluzione c’ha dato una spinta moderna per questi tempi moderni. Eppure siamo confusi da una serie di idee su un aspetto centrale di questa “proprietà”. Tale confusione ci porta ad andare a modificare le regole nella quale vive la rivoluzione di Internet, credendo di sapere cosa fa funzionare la prosperità circostante, ma, in realtà, ignorando le cause. Ciò condurrà alla fine di tale rivoluzione, che ha portato innumerevoli vantaggi agli uomini. Potremmo definirla una vera e propria lotta tra vecchio e nuovo. Internet minaccia chi prospera nel vecchio regime ed è per questo che reagiscono, cercando di modificare internet, in modo tale da bloccare la sua rivoluzione e da impedire la potenzialità di creare qualcosa di nuovo. Chi invece si è schierato nel nuovo regime, non lo difende dal vecchio, anzi lotta per potenziare sempre più internet. Lo sviluppo di Internet, però è difficile da descrivere; nessuno dei primi ideatori dei protocolli di rete avrebbe immaginato un mondo in cui i nonni avrebbero utilizzato i computer per parlare con i nipoti, o una tecnologia capace, in 30secondi, di rendere ottenibile una canzone. Ci sono però aspetti di questo futuro che possiamo immaginare con precisione. Sono la conseguenza della caduta delle barriere che imprigionano la creatività. Altrettanto importanti sono i costi di produzione. Entrambe rappresentano il risultato dell’avvento del digitale: le tecnologie digitali riproducono la realtà molto più efficacemente di quelle non digitali e ciò comporterà moltissimi cambiamenti. Tali cambiamenti possono avere effetti in ogni sfera del sociale anche nella sfera della creatività e della creatività offline, molto prima ce la legge provasse a regolarla attraverso il copyright. Ci fu un tempo in cui la creatività non aveva regole, ma la restrizione della creatività è avvenuta con la nascita della tecnologia digitale. Gli strumenti digitali cambiano il fronte delle opportunità per coloro che vogliono creare qualcosa di nuovo. La tecnologia digitale permetterebbe a moltissime persone comuni di entrare a far part e di un processo creativo. La tecnologia permette ad un’intera generazione di creare e poi, grazie all’infrastruttura di internet, condividere questa creatività con altri. La libera cultura si costruisce con l’aiuto di quest’arte e non solo. Questo tipo di futuro è importante sia per il commercio che per la creatività. Il network, fin ora descritto, consente entrambe le forme di creatività. Possiamo già intravedere tale potenziale. Internet ha spronato centinaia di aziende a sviluppare modalità di comunicazione tra individui. La posta elettronica è stata l’inizio. La tecnologia continuerà a migliorare. La tecnologia rende la vita umana più umana e non meno umana (come avevano sostenuto alcuni). Per gli avvocati specializzati in copyright, l’idea che la musica che sta nel “tuo” cd sia la “tua musica” è assurdo. Gli avvocati, specializzati in copyright, diranno che potrai avere il permesso di fare queste cose, ma non bisogna confondere la cortesia di Hollywood con i propri diritti. Puoi rip (copiare) mix (rielaborare) e burn (pubblicare) un film solo se Hollywood lo permette. I cambianti a cui si assiste interessano ogni fronte della creatività umana. Riguardano la crescita economica e l’occupazione tanto quanto la musica ed il cinema e le decisioni che prenderemo su tali questioni determineranno moltissimo il tipo di società che diventeremo. Determineranno il significato di “libero”. Siamo nell’età digitale una società libera? Ogni società ha risorse che sono libere ed altre controllate. La questione culturale è se una risorsa viene concessa in modo neutro. Il problema, per la nostra generazione, è se una data risorsa debba rimanere libera. Le libre risorse sono sempre state fondamentali nell’innovazione, nella creatività e nella democrazia. Ma, nel profondo del pensiero collettivo, si è convinti che le libere risorse siano in qualche modo inferiori rispetto a quelle aperte. La tesi di questo libro è che le libere risorse sono stati cruciali per la creatività e l’innovazione, senza di esse la creatività è monca. Internet è fondamentale in quanto, la sua definizione fondante, sta nel lasciare libere le risorse. Internet ha offerto, a gran parte del mondo, la massima dimostrazione del potere e della libertà. Eppure, proprio nel momento in cui si rammenta lo straordinario valore della libertà, internet viene cambiato in modo tale da privarci di questa libertà. Proprio mentre cominciano a vedere la potenza prodotta dalle libere risorse, certi cambiamenti dell’architettura di internet, la privano di tale potenza.

Materiali da costruzione:"commons" e "layers"[modifica | modifica wikitesto]

Il libro di Lessig tratta, fondamentalmente, di Internet ed i suoi effetti sull’innovazione. “Internet” e “società” sono concetti abbastanza noti. Ma alla base di tale ragionamento vi sono due idee che bisogna chiarire: l’idea di commons e gli strati layers. - Commons: l’Oxford English Dictionary considera i commons una risorsa posseduta “in comune”, nel senso di “un possesso comune”. Nella maggior parte dei casi i commons sono una risorsa cui chiunque all’interno della comunità in questione, ha il diritto senza dover ottenere il permesso di nessun altro. In altri casi il permesso è necessario ma viene concesso in modo neutrale. Le strade pubbliche, ad esempio, sono un commons. Chiunque può accedervi senza dover chiedere il permesso di nessuno. Anche la teoria della relatività di Einstein è un commons. Ciascuna di queste risorse è in comune, libera d’essere presa da tutti. Alcune sono libere nel senso che non viene pagato alcun prezzo, altre invece sono libere, ma c’è un prezzo da pagare, ma in entrambi i casi l’accesso alla risorsa non è condizionato dal permesso di qualcuno. Tuttavia gli economisti hanno obiettato a Lessing il fatto che, se tutti provano ad usare una strada, una spiaggia, nello stesso momento, ciò non mi consente di godere a pieno di quella strada o spiaggia. Gli economisti, ammette Lessig, hanno ragione. La lista di risorse presenti nei commons mescola le risorse competitive (il nostro uso di esse compete con quello altrui) e quelle che non lo sono (il nostro uso non impedisce quello altrui. Ciò che ha creato il commons è il carattere della risorsa e come questa si relaziona ad una comunità. In teoria, qualche risorsa potrebbe essere tenuta in comune, ma la domanda che la società deve porsi è quali risorse dovrebbero e come. Qui, la distinzione fatta dagli economisti è d’aiuto; distinguono infatti tra risorse competitive e non. - Se una risorsa è non competitiva, il problema è se sia sufficiente l’incentivo a produrne e non se ci sia troppa richiesta di consumo. Una risorsa non competitiva non può essere esaurita. Il problema, con una risorsa non competitiva, sta nell’assicurarsi di produrre abbastanza benefici da indurre a seminare. - Se una risorsa è competitiva presenta più problemi. Bisogna assicurarsi che il consumo da parte di alcuni ne lasci abbastanza per altri, ci si deve preoccupare di raccogliere abbastanza profitto da far sì che valga la pena seminare, ma anche che gli altri non esauriscano la risorsa. L’esaurimento di una risorsa competitiva, è quello che il biologo Hardin chiama “esaurimento della risorsa”. Hardin dice di immaginare un pascolo aperto a tutti, e di considerare il comportamento previsto dai pastori che usano il pascolo. Ciascun pastore deve decidere se aggiungere o no un animale in più al pascolo e nel prendere tale decisione, dice Hardin, quel pastore avrà un beneficio, ma gli altri ne soffriranno poiché il costo ricadrà su tutti, visto che il pascolo deve sfamare una mucca in più. Questo è il problema: qualsiasi sia il costo che viene aggiunto, sono gli altri a dover sopportare. Tale “tragedia” domina la discussione dei commons. Bisogna però dire che non si può associare l’osservazione del fatto che una data risorsa è tenuta “in comune” alla conclusione che “la libertà di accesso ad un commons porta tutti alla rovina”. La tesi centrale del libro di Lessig è che vi è un beneficio dalle risorse tenute in comune e che internet è la migliore prova di tale beneficio. Internet è un’innovazione in comune. La Rete è uno spazio dove può fiorire la creatività. Eppure, fa notare Lessig, non ci si accorge che Internet è un commons e ciò porta ad ignorare tutti i cambiamenti sull’architettura e norma di rete che indeboliscono tale commons. È qui in atto una tragedia: la tragedia della perdita di quell’innovazione in comune (Internet), attraverso i cambiamenti che vengono introdotti. - Strati: ogni sistema di comunicazione è composta da strati che lo rendono possibile. Ciò è stato elaborato dal miglior teorico della comunicazione, Benkler, il quale suggerisce di leggere un sistema di comunicazione suddividendolo in 3 “strati” differenti. Alla base pone lo strato “fisico”, attraverso il quale viaggia la comunicazione. Nel mezzo vi è uno strato “logico” o “codice” che fa funzionare l’hardware. In cima vi è lo strato “di contenuto”, ciò che viene detto o trasmesso attraverso dei cavi: film online, testi ecc. ogni strato potrebbe essere di proprietà oppure organizzato in un commons. Si potrebbe immaginare un mondo dove lo strato fisico e logico sono gratuiti e quello di contenuto no, oppure che il fisico e il contenuto sono gratuiti e il logico no ecc. nonostante, dunque, possono esserci differenze, nessun mix prevale sull’altro. Bisogna semplicemente chiarire il fatto che esistono degli scambi di concessioni. Ora si potrebbe pensare che anche internet è un sistema di comunicazione libero. Ma non lo è. La cosa speciale di internet sta nel mischiare libertà e controllo. Lo strato fisico di internet è controllato. I cavi ed il computer, attraverso cui la rete funziona, sono di proprietà del governo o privati. E non tutto ciò che è presente su Internet può essere preso, molto è protetto da leggi di proprietà intellettuale. Molti altri contenuti, però, sono liberi. Internet, dunque, è sia strati liberi, sia controllati, non soltanto liberi. Internet mischia gli strati di libertà e controllo.

Commons via cavo[modifica | modifica wikitesto]

Internet è un network di network. Questi network sono connessi da cavi e questi cavi sono controllati da individui che sono stati scelti per lavorare al servizio della Rete. Questo vasto network di tecnologia privata ha costruito uno dei più importanti commons d’innovazione mai conosciuto. Questi network privati hanno creato una risorsa aperta di cui molti possono servirsi. Paul Baron è stato un ricercatore alla Rand Corporation. Il suo progetto, negli anni 60, era l’affidabilità della comunicazione. Il compito di Baron era esplorare un sistema di comunicazione più sicuro. Così chiese all’allora fornitore delle comunicazioni in America (l’America telephon e telegraph) AT&T di poter esaminare i piani, ma L’AT&T respinse la sua richiesta rispondendo che il sistema era già sicuro. Nell’AT&T vi era il “Sistema Bell”. Non si trattava solo di una grande azienda, ma di un partner del governo che controllava le telecomunicazioni in America. Ma non è sempre stata questa la situazione telefonica. Sebbene L’AT&T detenesse i primi brevetti relativi alla tecnologia telefonica, una volta scaduti tali brevetti nacque una competizione per portare il servizio telefonico nelle case degli americani. L’AT&T si concentrò sull’impresa. La competizione produsse una rapida espansione della copertura (telefonica). Il modello d’allora aveva un rapporto con i telefoni così come noi 20 anni fa con i computer. Sebbene ci fosse un sistema dominante sugli altri (L’AT&T), c’era una competizione vigorosa tra gli altri sistemi “indipendenti” per la telefonia. Tale competizione ha spinto il sistema dominante, L’AT&T, a diventare migliore. Ma dopo un po’ L’AT&T si stancò di tale competizione. Nell’azienda si diffuse l’idea che la sicurezza sarebbe nata solo dalla fusione con la concorrenza. Dal 1908 al 1913 il sistema Bell adottò delle strategie per l’acquisizione di concorrenti. Per tale motivo L’AT&T venne attaccata come mostro che puntava al monopolio, infatti in America la competizione era vista come qualcosa di deleterio. L’AT&T, lentamente, riuscì a stipulare degli accordi con il governo che le garantissero l’estendere il proprio raggio d’azione, nonostante le leggi antitrust (norme giuridiche poste a tutela della concorrenza sui mercati economici) in questa fase d’espansione, l’arma più potente dell’AT&T fu di offrire ai concorrenti la possibilità di interconnessione. Man mano che gli operai indipendenti si connettevano al sistema AT&T, i vantaggi offerti al pubblico scomparivano. La spinta AT&T di diventare fornitore universale aumentò. Il vantaggio della rete L’AT&T aumenta rispetto agli altri indipendenti e le compagnie indipendenti dell’epoca compresero ciò e accusarono chi aveva scelto di connettersi con AT&T d’essere “traditore”. Nel 1913 il governo stipulò un accordo con L’AT&T per garantire in America il monopolio delle telecomunicazioni. Questo accordo fatto, bloccò la voracità dell’AT&T nelle acquisizioni. L’impegno non forzò gli scambi locali a diventare più competitivi, né impose l’interconnessione a lunga distanza con altri fornitori. L’AT&T produsse uno straordinario sistema telefonico. I laboratori della Bell inventarono la tecnologia delle fibre ottiche, il transitor, e tanti altri importanti progressi tecnologici. I suoi scienziati si guadagnarono almeno una dozzina di premi Nobel. Erano “soldati delle telecomunicazioni”. Durante il proprio regno monopolistico, L’AT&T riuscì ad ottenere i migliori ricercatori della telecomunicazione. In gran parte del ventesimo secolo era illegale il solo sperimentare sul sistema telefonico. Regole come quella degli “allegati estranei” avevano il compito di proteggere questa tecnologia telefonica. Baron (che era un ricercatore del dipartimento della Difesa) temeva che l’attuale sistema delle telecomunicazioni non avrebbe resistito ad un attacco nucleare. Dopo aver molto insistito, ottenne dall’AT&T il piano, e comprese che L’AT&T si sbagliava e non poteva sostenere, come lui sospettava, un attacco nucleare. Così progettò un piano per le telecomunicazioni. E voleva che L’AT&T lo aiutasse a costruirlo. Era un modello che si avvicinava ad internet. Propose una tecnologia con la “comunicazione a pacchetto”. Nel disegno dell’AT&T quando si chiamava qualcuno a Parigi, per esempio, si apriva un circuito fra sé e Parigi. La conversazione viaggiava lungo un filo di rame. L’idea di Baron era differente. Per Baron se i pacchetti scorrono abbastanza velocemente ed i computer ad entrambi gli estremi erano veloci, la conversazione codificata, tramite la commutazione a pacchetto, sarebbe sembrata proprio come una conversazione che avveniva con il cavo. Baron spinse affinché L’AT&T lo aiutasse a costruire questo sistema alternativo. L’AT&T rispose che lui non capiva la telefonia e così, per molti mesi, frequentò dei corsi finanziati dall’AT&T in modo da accrescere la sua conoscenza del sistema. Ma Baron più apprendeva, più comprendeva che il modello dell’’AT&T era sbagliato. Così il dipartimento della Difesa offrì di pagare L’AT&T per costruire il sistema. Ma L’AT&T si rifiutò ancora aggiungendo che se pure tale sistema funzionasse, non avrebbero mai creato qualcosa per un concorrente. Va ribadito però che L’AT&T non è cattiva. L’AT&T aveva degli obblighi nei confronti dei proprio azionisti e nei confronti dei propri azionisti e nei confronti dello Stato per assicurare un servizio di qualità. Era un agire volto ad assicurare che entrambi questi obblighi fossero assolti: massimizzare i profitti per gli investitori e soddisfare, al tempo stesso, gli impegni con il governo. Ma ciò che è buono per L’AT&T non è buono per l’America. Quello che faceva L’AT&T era giusto per gli interessi di cui era eretta a tutela. C’era un conflitto però. La Difesa aveva costruito un sistema di telecomunicazioni che poteva essere assai maggiore di quello dell’AT&T. ed è per questo che L’AT&T non voleva la nascita del nuovo concorrente, anche se avrebbe portato un gran progresso nell’ambito della telecomunicazione. Il desiderio naturale di ogni azienda è di difendere il proprio mercato. Così come per il mercato competitivo, lo scopo sta nel limitare i modi in cui un’azienda può proteggere il proprio mercato. Ma per quasi tutto il secolo, il desiderio principale di chi prendeva decisioni politiche, era quello di rafforzare l’azienda e difenderla. Ad un certo punto Baron capì. Quando il suo progetto fu spinto all’interno della DCA (Defense Communication Agency) capì che il suo progetto sarebbe stato compreso. Così il suo progetto venne ritirato. Le persone all’epoca non potevano con successo il progetto, lo avrebbero mandato in malora. Internet non è una rete telefonica. È una rete di reti che, talvolta, funziona anche su reti telefoniche. Questi reti e cavi che le uniscono sono proprietà privata. Tale principio, come quello contro cui si misurò Baron, condiziona ciò che è permesso da ciò che non lo è. Descritto dagli architetti di rete (Clark-Reed-Saltzer) questo principio, detto “ end-to-end argument” istruisce i progetti di rete su come sviluppare protocolli e applicazioni per il Network. Il motivo per il quale si scelse qualcosa di molto semplice per il protocollo di internet, è sintetizzato in ciò che dice Reed: “volevamo essere certi di non creare una tecnologia di rete che ci limitasse nell’uso di qualche altra basilare tecnologia della trasmissione che si sarebbe rivelata valida nel futuro.” Non c’è stato nessun principio di architettura di network più importante per il successo di Internet come questo principio di network design. Il codice del cyberspazio, ovvero la sua architettura (il software e l’hardware) regolano la vita del cyber spazio in generale. Il codice è una legge. Il codice è una legge del cyberspazio e per Lessing è la legge più significativa. Ma in cosa è importante il codice? Internet non è un romanzo. Nessuno ne ha mai firmato la fine. In ciascun momento della sua storia ci sono state delle modifiche e miglioramenti della sua architettura, ma non c’è mai stato un disegno preciso di ciò. I vari momenti della storia dello sviluppo delle rete è riuscito in qualcosa chiamato “RFC” pubblicato nel 1996. La RFC è un documento “informativo” sui principi architettonici di Internet”. Sebbene secondo la RFC molti membri di internet ritengono che non ci sia un’architettura, il documento riporta che la comunità pensa che lo scopo di Internet sia la connettività e che le informazioni siano end-to-end piuttosto che nascoste all’interno del network. Gli architetti di Rete (Reed-Clarck e Saltzer) non furono i soli a rendersi conto del valore di end-to-end. Ciò divenne evidente alla stessa AT&T. All’inizio degli anni 90 David Isenberg (ricercatore pressi i laboratori Bell) divenne molto insofferente verso “l’intelligenza” del network AT&T: ogni strato della catena distributiva del network AT&T era stato ottimizzato per la telefonia vocale. Infatti non si poteva cambiare nulla. Infatti aggiustare o modificare uno strato nella catena dell’AT&T comportava uno scompiglio in altri strati. Era impossibile il cambiamento. Così Isenberg giunse alla conclusione che per l’innovazione era necessario un network più sciocco. Un network più intelligente sarebbe stato meglio per pochi utenti, ma non consentiva l’innovazione. Isenberg divenne il primo nemico dell’AT&T e, loro malgrado, l’idea di un network più sciocco iniziò a diffondersi anche all’estero. L’idea di Isenberg echeggiava il principio dell’end-to-end. Internet non è l’unico network che segue un design end–to-end. La rete elettronica è una rete end –to-end; finché il mio apparecchio è conforme alle regole della rete, posso collegarlo. Gli architetti iniziali del network erano esperti e modesti e sapevano, soprattutto, di non sapere per cosa sarebbe stato utilizzato questo network. Volevano solo assicurarsi che il network si sviluppasse nel modo preferito degli utenti. In questo modo il sistema end-to-end disabilita il controllo centrale sugli sviluppi del network. Secondo Berners Lee: internet ci offre libertà. Possono essere aggiunte nuove applicazioni a Internet senza cambiare nulla al network esistente. L’architettura del network è neutrale rispetto al contenuto e all’applicazione. Il principio end-to-end fa di internet un commons d’innovazione, dove gli innovatori possono sviluppare applicazioni o contenuti senza il permesso di nessuno. Grazie all’e2e il sistema resterà aperto a qualsiasi innovazione. Grazie all’e2e, definita da molti una chiave esplosiva, gli innovatori sanno di non aver bisogno del consenso di nessuno per sviluppare nuovi contenuti, neppure dell’AT&A e che il network non potrà operare alcuna discriminazione contro di esso. Ma se l’e2e è nella natura di internet, perché preoccuparsi? In realtà il network è in continua evoluzione, quindi in futuro l’e2e potrebbe anche essere rimossa. Il codice che definisce il network a un dato momento, non sarà per forza quello che lo definirà successivamente. Le conseguenze di questo vincolo dell’e2e sono molteplici. Si potrebbe commettere l’errore di non distinguere il www da internet, ma in realtà sono due cose differenti. Il World Wide Web è una perfetta illustrazione di come funziona l’innovazione di internet e di quanto importante sia in un network neutrale per quell’innovazione. Tim Berners-Lee ebbe l’idea del World Wide Web, osservando il fatto che era difficile condividere informazioni contenute in computer individuali, non era facile pubblicarle su un network. Lee iniziò a pensare ad un sistema che rendesse possibile il collegamento tra i documenti; attraverso una procedura chiamata “IPERTESTO”. Il suo ideale era quello di creare uno spazio in cui ogni documento poteva essere linkato a qualunque altro e che il documento pubblicato potesse essere disponibile a tutti. Ma gli elementi di tale visione non erano nulla di nuovo. L’ipertesto ed i link era nata da Bush. La possibilità in cui tutti questi documenti potessero essere collegati tra loro era nota a Robert Fano. Lee mise insieme queste idee e l’idea di Lee colpisce per la sua genialità. Chiunque avesse accesso a internet, poteva accedere ad ogni documento pubblicando secondo i protocolli del World Wide Web furono in pochi a convincersi delle qualità dell’ipertesto nella rete, gli esperti non avevano capito. Lee temeva che la concorrenza di protocolli per l’uso di Internet avrebbe, con il tempo, spazzato via ogni interesse nel World Wide Web. Lee progettò il protocollo di trasferimento HTTP, uno per il trasferimento di file (FTP) e uno per accedere ai newsgroup presenti su internet (NNTP). La rete dovrebbe essere neutrale rispetto ai diversi protocolli, così avrebbe permesso l’interconnessione. La nascita della Rete è un esempio dell’innovazione consentita dall’architettura dell’end-to-end dell’internet originario, sebbene pochi se ne resero conto, pochi poterono tuttavia sviluppare e utilizzare i protocolli del World Wide Web. Poterono utilizzarli perché non ebbero bisogno di convincere né i proprietari dei sistemi operativi informatici, né i proprietari del network. La nascita della rete era “una buona idea” e la gente era libera di usarlo perché il progetto di internet lo rende tale. In questo modo due network, quello costruito dall’AT&T e quello che chiamiamo internet, creano due diversi ambiti per l’innovazione. Uno centralizza la creatività, l’altro lo decentralizza. Ma come è avvenuto il passaggio dalla centralizzazione alla decentralizzazione? La “tradizione orale di internet” tramanda che fu il governo a spingere i progettisti del network a sviluppare delle macchine che potessero parlare l’una all’altra. Volevano un sistema che mettesse in relazione i sistemi. Nella piattaforma su cui nacque la rete telefonica collegava un’abitazione all’altra. Ma non si aveva il diritto legale di usare i cavi telefonici per collegarsi a Internet. E come lo rese possibile? Ci fu una miscela di progettazione e controllo e ciò ha mantenuto il sistema telefonico aperto all’innovazione e ciò rese possibile internet. Il sistema, nell’innovazione, venne lasciato libero affinché il circuito spedisse qualsiasi dato che l’utente desiderasse. Una volta connesso il circuito, l’ambiente creato dalla miscela fra principi tecnici e norme legali operanti nel sistema delle telecomunicazioni equivale a una progettazione end-to-end sullo strato del network. Ciò rese pubblico internet. Internet però non è immune da debolezze. La capacità della rete non è infinita. Per certe applicazioni il “rapidamente possibile” non è abbastanza. Per affrontare questo problema sono sorte proposte di cambiamento di rete, che potrebbero meglio offrire un servizio garantito. Queste soluzione si chiamano “quality of service” (QoS). Tali modifiche dovrebbero permettere al network di trattare diversi “classi” di dati diversamente: il video, per esempio, diverso rispetto alla posta elettronica ecc. Per attivare tale capacità il network, il sistema dovrebbe, come minimo, essere in grado di decidere quale classe di servizio un’applicazione debba ricevere per poi trattarla di conseguenza. Gilder sostiene che la nostra rete attuale, basata su connessioni lente e macchine veloci, sarà cambiata in futuro. Man mano che il rame verrà sostituito con il vetro la velocità del Network sarà come quella della luce. Ma le affermazioni di Gilder sulla tecnologia incontrano un certo scetticismo. La tragedia dei commons è la tendenza dell’industria ad aggiungere a quel network tecnologie che lo indeboliscono alla base. Internet è nato in uno strato fisico controllato; il codice che costituiva il TCP/IP era tuttavia gratuito. Tali protocolli esprimono un principio end-to-end e quel principio aprì lo spazio, creato in rete dai computer, al cambiamento e all'innovazione. Questo spazio aperto era una libertà importante. La libertà creò un commons d’innovazione. La libertà ha aumentato il valore di ciò che è controllato

Commons tra i cablati[modifica | modifica wikitesto]

Wired è il nome di una rivista (apparsa per la prima volta nel 1993) e si riferisce a coloro che sono CABLATI o, secondo il dizionario online “with it” (connesso) rispetto ad ogni cosa digitale. Per chi è al di fuori delle cose digitali, “CABLATO” sono quei tipi fissati con la tecnologia, mentre per chi ha conoscenza delle cose digitali, “CABLATO” è chi comprende il potenziale di quel luogo chiamato cyberspazio e rende questa potenzialità reale. Il carattere di questo tipo di gruppo è però mutato. Oggi si è molto interessati al denaro facile. Eppure esiste ancora un gruppo che può essere denominato “connessi” e sono colore che stanno costruendo l’internet che conosciamo. Questo “bene comune”, questo commons, ha 3 aspetti, che lo hanno reso possibile: uno è di codice, un commons di software, che ha costruito la rete, il secondo un commons di conoscenza, un libero scambio di idee e informazioni su come funziona la rete, ed il terzo un commons d’innovazione. La differenza del commons descritto precedentemente e questo è che il primo è costruito su una base end-to-end, è un bene comune allo strato di codice di network. Nel secondo è il contenuto a essere codice e alla nascita della rete molto di questo contenuto era gratuito. Il contenuto gratuito è cruciale per costruire e sostenere nuovi contenuti Per introdurre questo bene comune bisogna pensare di più al codice. Il “codice” è principalmente scritto da esseri umani, anche se il codice scritto dagli uomini è diverso da quello compilato sul computer. Gli uomini scrivono il codice sorgente (che consiste in una collezione quasi incomprensibile di linguaggi logici progettati per istruire il computer su ciò che deve fare) i computer eseguono un “codice oggettivo”. Il codice sorgente deve essere “compilato” prima d’essere eseguito, viene tradotto da codice leggibile dall’uomo, a uno comprensibile per la macchina. Il codice oggettivo è linfa vitale del computer, ma è il codice sorgente a mettere in relazione uomo e macchina. Ma non è stato sempre così. I primi computer non avevano “software” e le loro funzioni erano collegate direttamente via cavo alle macchine. Oggi la polpa del computer è il software, non più il via cavo. All’inizio le aziende di computer scrivevano il software, ma era specifico delle macchine di quell’azienda. Ciascuno aveva il proprio sistema operativo, dunque erano diversi e incompatibili tra loro. Ciò creava inconvenienti a chi, per lavoro, dipendeva da macchina differenti. Il governo Americano spese dei milioni, ma si stancò presto del fatto che le macchina non dialogassero tra loro. L’AT&T costruì il sistema operativo più importante della storia. Acquistò molti computer per gestire il proprio network nazionale di telefoni, ma a causa di un accordo con il governo, non gli era permesso di costruire e vendere questi computer. I ricercatori del laboratorio Bell si misero al lavoro cominciando a costruire un sistema operativo che potesse essere tradotto in ogni macchina. Un programma scritto una volta poteva, con piccoli cambiamenti, girare su macchine diverse. La nascita di Unix, nome del primo sistema operativo dell’AT&T, fu la cosa più importante. Questo sistema l’AT&T lo cedette. Tra i primi a servirsi di questo sistema operativo furono le università. Il processo produsse un network vasto e potente di persone che cominciarono a parlare il linguaggio Unix. In questo periodo Unix era un commons, un bene comune. Stallman era ricercatore al Mit. Nei laboratori dove lavorava, c’era una stampante collegata al network. Dei programmatori intelligenti avevano scritto un programma che li avvertiva quando la stampante non funzionava. Dopo che il laboratorio aggiornò il software per far funzionare la stampante, Stallman fu informato del fatto che il codice sorgente del driver della stampante era ora chiuso. Nessuno ora era più autorizzato a lavorarci. Così nel 1985 fondò la Free Software Foundation, con lo scopo di incoraggiare lo sviluppo d software che portasse con se il proprio codice sorgente e di assicurarsi che l’accesso alla conoscenza contenuta nel software non venisse negata ad altri. L’AT&T in questo periodo decise di esercitare un controllo Unix. Dal 1984 Unix non sarebbe stato più libero. Molti vissero ciò come un tradimento. Ma Stallman volle creare una versione gratuita di Unix, che fosse sempre gratuita. Così la Free Software Foundation lanciò il progetto Gnu. Per tutti gli anni 80 Stallman lavorò esclusivamente a questo. Ma con la fine degli anni 80 il processo cominciò a rallentare. Stallman iniziò ad avere problemi alle mani e per un periodo perse la possibilità di scrivere con la tastiera, allo stadio finale del suo progetto aveva rallentato. In Finlandia un giovane studente di informatica voleva fare esperimenti su un sistema operativo. Cos’ cominciò a giocare con il Minix, la versione didattica di un sistema operativo distribuita dal prof. Di informatica. Minix era incompleto e funzionava su un pc. Il giovane studente iniziò a costruire un’alternativa al Minix e a diffonderla sul web. Nacque Linux o il Gnu/Linux. Era una piattaforma che veniva fornita assieme al proprio sorgente; chiunque poteva prenderlo, costruirvi sopra e migliorarlo e oggi è il sistema operativo con la crescita più rapida al mondo. Gnu/Linux è un progetto a “codice aperto”. Il codice sorgente può essere visto e modificato dall’utente, le sue parti possono essere prese da altri codificatori. Linux è solo un esempio di progetti open Source che all’inizio popolavano la rete. Un altro esempio è il server Apache che venne diffuso nel mondo come server libero. Linux e apache sono i due progetti open source più importanti. Ma ve ne furono ancora altri. Il sistema Berkley Internet Name Daemon fu sviluppato all’inizio come progetto a codice sorgente presso l’università di California. Il principale architetto divenne Paul Vixie ed è stata creata con un codice aperto. L’open source costituisce un commons, un bene comune. Nuovi progetti vengono disegnati in base a questo codice comune: ogni progetto non può partire da zero, la risorsa, così, alimenta un ampio raggio d’innovazione che altrimenti non potrebbe esistere. Un libero codice inoltre costituisce un commons di conoscenze, reso possibile dalla natura dell’informazione. La conoscenza non è competitiva, conoscere qualcosa non riduce la quantità di cose conoscibili ad altri. Il codice è performativo: ciò che dice fa. Di conseguenza, dal codice si impara non soltanto leggendo, ma anche applicando. Basta pensare al codice che costruisce il World Wide Web; le pagine web sono scritte attraverso il linguaggio HTML. Se si vuole vedere come una pagina è stata creata, si usa la funzione “visualizza HTML” di quella pagina e questa muta nelle serie di codici che l’hanno generata. All’inizio l’apprendimento si limitava semplicemente a copiare una pagina e modificarla secondo il desiderio del programmatore. Anche se il codice era protetto da copyright altri potevano trarne insegnamento. Si scelse quest’assetto per il World Wide Web. Un codice sorgente libero allo strato del contenuto, costituisce un commons d’innovazione, ma questo commons, a differenza dell’end-to-end è protetto dalla legge. La legge che protegge il commons è una combinazione di leggi contrattuali e di copyright. Un copyright si applica essenzialmente a qualsiasi lavoro creativo, nel momento in cui la creatività viene fissata in forma tangibile. La email sono coperte da copyright nel momento in cui vengono scritte. La legge crea questo diritto esclusivo, cioè “DIRITTO DI MONOPOLIO” per aiutare a risolvere un problema che si presenta con l’informazione creativa. Ciò crea un problema per l’incentivo degli autori, poiché se non ci fosse un modo per controllare le copie del proprio lavoro, non ci sarebbe per loro alcun profitto. Il copyright pone rimedio a ciò. Il copyright assegna agli autori un diritto esclusivo di controllo su certi usi del proprio lavoro per un periodo limitato. Questo diritto è stato concepito per porre rimedio al problema degli INCENTIVI, ma non reca nessun beneficio all’autore se, da solo, deve esercitare questo diritto. Quindi è attraverso i contratti che viene concesso il diritto di usare un lavoro protetto da copyright. Fin ora abbiamo parlato di “codice aperto” o di “codice libero”, ma identificano due tipi di licenze diverse. La licenza originale di codice aperto è Gpl. La Gpl limita le limitazioni alla copiatura da parte del titolare della licenza, mentre gran parte delle licenze serve a limitare le copie che un titolare della licenza può fare. Tutti possono modificare un lavoro Gpl, a patto che anch’ess ricevano il codice sorgente. Ciò rende il codice Gpl “libero”. Anche il sistema operativo Linux è sotto licenza Gpl. Altri sistemi operativi non sono aperti o gratuiti. La libertà di agire sul programma è un’importante libertà. È importante che un sistema sia neutrale in modo che non si ribelli all’innovazione. Si può vedere l’importanza di ciò illustrando, sommariamente, la causa civile più importante che finora ha riguardato il cyber spazio, gli Stai Uniti contro Microsoft. Il governo sosteneva che la Microsoft avesse costruito una piattaforma importante sulla quale aveva adottato una pratica che impediva certi tipi di innovazione. La Microsoft sosteneva che il governo adottasse una strategia che incidesse quest’innovazione. La piattaforma, in altre parole, si rivoltava contro certi tipi d’innovazione e ne proteggeva altri. Questo modello, ipotizzava il governo, soffocava e danneggiava l’innovazione. La Microsoft usciva in tutto il mondo con l’ultima versione di un programma chiamato Windows. Windows 3.0 era un semplice programma che funzionava sottostante sistema Dos. Ma c’era una pressione sulla Microsoft. Non era l’unico produttore di Dos. Un’azienda aveva sviluppato un diverso Dos, Dr-Dos che veniva considerato superiore rispetto a Ms-Dos (versione della Dos sviluppata da Ibm) nel 1990 la rivista “Byte” scrisse che Dr-Dos 5.0 curava molto le mancanze di Ms Dos e dunque stavano minacciando la Microsoft. Man mano che gli utenti adottavano il pc, diventavano sempre più sofferenti dell’interfaccia della stringa di comando e iniziarono a cercare altri pc, il più attraente era l’Apple Macintosh, il quale offriva un semplice interfaccia che rendeva più immediato l’uso del pc. L’azienda di Gates aveva creato Word ed Excel. Gates spinse la sua azienda a creare qualcosa di migliore. Gates capì che il futuro sarebbe stato un mondo con un unico sistema operativo e sarebbe stato Windows 95, ma ci voleva tempo per arrivarci. Bisognava non perdere nel cambiamento la propria clientela di base. Per mantenere il campo la Microsoft doveva assicurarsi che nessun concorrente riuscisse ad appropriarsi dei clienti del suo sistema operativo. L’antidoto a ciò era il potente e popolare programma Windows 3.0. Dunque la Microsoft aveva usato, secondo il governo, il suo potere su Windows per evitare la competizione con Dos. La Microsoft rese impossibile ai propri concorrenti di compiere alcun progresso nel proprio territorio. In questo modo la Microsoft avrebbe mantenuto i suoi clienti fino alla migrazione a Windows 9.5. Nel 1994 il governo notificò alla Microsoft l’intenzione di intentarle una causa per politiche di prezzo illegali e comportamento vincolante nel garantirsi il territorio per i propri prodotti. Ma la Microsoft firmò un decreto consensuale, promettendo al governo che non si sarebbe coinvolta in una serie di comportamenti proibiti. Il governo accettò e la questione venne risolta. Se l’azienda che ha firmato il decreto di consenso trasgredisce l’accordo, il governo affida ad un tribunale il compito di proibire il comportamento trasgressivo. Dunque la competizione tra gli altri sistemi operativi ricominciava e la posizione di Monopolio della Microsoft sarebbe stata cancellata. La strategia della Microsoft puntava a difendere Windows 95 da una nascente forma di competizione: internet. Gates non l’aveva preso sul serio, ma presto capì che Internet rappresentava la massima minaccia per la Microsoft. Il potere della Microsoft veniva dal fatto che i programmatori scrivevano le applicazioni per la piattaforma Microsoft. Finché ciò continuava, l’azienda sarebbe rimasta forte. Ma Internet rappresentava una diversa opportunità per i programmatori. Attraverso un linguaggio Java, i programmatori trovavano più convincente scrivere i programmi direttamente per la Rete. A tale minaccia, Microsoft assunse un atteggiamento difensivo, cioè di applicare un programma di navigazione Microsoft al sistema operativo fondamentale Windows 95. Ogni produttore di computer che voleva vendere un pc, doveva venderlo con Windows 95. Ma il governo, nuovamente, l’accusò di comportarsi in maniera strategica contro un’innovazione che la stava minacciando. La Microsoft quindi è stata accusata d’essere incapace di competere e che Gates non era disposto a misurarsi sul piano competitivo, e tutto ciò che metteva in dubbio il monopolio di Microsoft veniva soppresso, annullava la competizione. La Microsoft poté assumere tale comportamento poiché controllava il proprio codice. Il suo codice sorgente è chiuso e la Microsoft non lo rende al pubblico; in questo modo può modificarlo per sfidare i concorrenti e lo modifica proprio perché è chiuso. Un sistema a codice aperto non può fare ciò; gli utenti proprio perché il codice sorgente è lì, sono sempre liberi di toglierlo. Il codice aperto è un limite alla capacità di comportarsi strategicamente contro qualunque cosa. La minaccia tra Stati Uniti e Microsoft non sarebbe tale se il sistema operativo fosse costruito su un codice aperto. Il codice aperto non può comportarsi strategicamente.

Commons, wireless[modifica | modifica wikitesto]

Lo “spettro radiofonico” è quel fascio di radiofrequenze elettromagnetiche, oggi utilizzato per tutto, dalla televisione, ai cellullari. Questo spettro è regolato e tale regolazione la diede il Titanic. Dopo l’affondamento, alcuni analisti della marina sostennero che se il suo spettro radiofonico fosse stato meglio regolato, una nave distante meno di 20 miglia, avrebbe salvato centinaia di persone. Il governo utilizzò questa confusione per iniziare a regolare uso e accesso dello spettro. La Federal Radio Commission (Frc) istituì un procedimento per il quale il diritto di usare un certo spettro fu messo sotto licenza. Qualunque uso senza licenza era reato penale. L’uso dello spettro richiedeva il permesso di qualcun altro: IL GOVERNO. Lo spettro restava una risorsa controllata e il controllore era il governo. Ciò ebbe un effetto profondo sulla programmazione radiofonica. La programmazione era diversa da quella di oggi. Lo spettro non era pieno di talk-show commerciali. Anzi non c’era proprio la radio commerciale. Ma una volta convolto il governo tutto cambiò radicalmente. I canali commerciali (in particolare Nbc e Cbs) riuscirono a far utilizzare lo spettro, dal governo, a modo loro. Tra il 1927 e 1934 ci fu uno spostamento radicale nell’uso della radio, uno spostamento verso un unico e dominane uso dello spettro radiofonico, quello della Radio commerciale. La Nbc e la Cbs, da sole, occupavano il 98% delle trasmissioni serali. La gente però detestava il sistema commerciale che stava emergendo, ma con il tempo le persone si abituarono alla pubblicità e l’opposizione sparì. In quegli anni il congresso era pronto per un nuovo statuo, il Communication Act del 1934. L’atto incoraggiava l’agenzia Federal Comunication Commission (FCC) di regolamentare determinate zone chiave dello spettro. Inoltre dava alla FCC il potere di prendere decisioni su come meglio utilizzare lo spettro in pubblico. Ciò venne contestato dalla corte suprema nel 1946, ma il giudice sostenne che la regolamentazione dello spettro radiofonico era necessaria. Lo spettro non poteva essere libero, doveva essere controllato dal governo. Un economista inglese, Ronald Coase, riteneva che una regolamentazione politica dell’accesso allo spettro non fosse giustificata. Coase sosteneva che lo spettro dovesse essere suddiviso in diritti di proprietà e venduto al miglior offerente e la storia lo ha premiato. Molti erano persuasi da Coase e di come il suo sistema fosse migliore di quello della Fcc. Entrambi però (Fcc e Coase) respingono un modello di spettro come commons. Per entrambe lo spettro deve essere controllato. Per la Fcc dal governo, per Coase dal mercato. Thomas Hazlett, sostiene le teoria di Coase, dicendo che l’amministrazione dello spettro da parte dello stato crea danni enormi. Ci sono sempre più forti argomentazioni a favore di una diversa assegnazione dello spettro. Questi “modi differenti” si abbreviano con il termine “tecnologia a banda larga”. Tali tecnologie permettono a molti utenti di “condividere” lo spettro senza il bisogno di ottenere i diritti da parte dal governo o del mercato. Il diritto di utilizzarlo sarebbe concesso a chiunque lo voglia. Lo spettro così sarebbe un commons e non una proprietà. Ciò non significa non regolare l’uso dello spettro, ma il regolamento sarebbe solo diverso. Per capire la possibilità del libero spettro, consideriamo le vecchie versioni di Ethernet. La condivisone avviene senza che nessun’altro decide chi faccia cose e quando, questo è l’aspetto più importante. Quando una macchina in Rete Ethernet vuole comunicare con l’altra, la macchina richiede al network il diritto di trasmettere. Fa questa prenotazione soltanto se il network, in quel momento, è libero. La macchina prima verifica se il network fosse utilizzato, se non lo era, mandava una richiesta di prenotarlo. E se 2 macchine mandano contemporaneamente la stessa richiesta il network registra una “collisione” e la richiesta di entrambe è fallita. Chiunque è connesso al network deve chiedere il permesso per usare la risorsa, ma questo permesso può essere neutro rispetto al contenuto. Ethernet non è lo spettro radiofonico. L’attuale paradigma di trasmissione attraverso lo spettro radiofonico, abbraccia l’opposto del sistema end-to-end. Intorno ai primi anni 80 le regole per governare lo spettro divenne per David Hughes un’ossessione. Il suo scopo era quello di trovare un modo economico di comunicare tra distinte comunità. Usando apparecchi radiofonici economici Hunghes cominciò a effettuare esperimenti nell’espansione dello spettro, dimostrando il potere di una tecnologia che non dipendeva da uno spettro di proprietà. Il fulcro del progetto di Hughes era una tecnologia per condividere lo spettro, cioè un modo per rendere libero lo strato fisico, trattandolo come se fosse in un commons. Hughes lavorò per un periodo con Hendricks. Nei primi anni 80 la FCC voleva esplorare le possibilità dell’uso dello spettro in un commons. Hendricks però fece le valigie e andò via dalla FCC, andò a Tonga e costruì un sistema che forniva accesso a Internet ad alta velocità a tutti i cittadini dell’isola. Questo accesso usava lo spettro radiofonico: la velocità era da 2 a 5 volte il più veloce modem degli U.S.A. Hendricks poté costruite questo sistema a Londra poiché era libero dalla regolamentazioni della Fcc. Ma non si fermò a Tonga, costruì un sistema simile a quello di Tonga all’interno delle terre tribali degli indiani d’America, in 8 tribù con esattezza. Huhes e Hendricks sono solo 2 di un bel gruppo di innovatori che sperimentarono queste alternative per distribuire lo spettro. L’argomento in questione, dunque, è un commons che ancora non è, anziché uno già esistente. Lessig evidenzia quanto sia importante liberare lo spettro dal controllo governativo poiché è un primo passo importante verso l’innovazione dell’uso dello spettro. L’innovazione si muove troppo lentamente quando deve chiedere permessi a organismi controllati politicamente. Liberare lo spettro dal controllo del mercato è un secondo passo avanti. Hazlett ed altri sostengono che il razionalismo del mercato sia necessario per evitare abusi.

Lezioni di commons[modifica | modifica wikitesto]

I commons producono anche qualcosa di valore, infatti creano l’opportunità di ottenere risorse senza bisogno di connessioni, permessi o accessi garantiti ad altri. Internet è costruito su 2 commons e ha il potenziale di spostarsi verso un terzo. I protocolli di Rete vi hanno inserito dei principi creando un commons d’innovazione allo strato fisico. Il software libero o open source fornisce allo strato di codice un secondo commons e da ultimo, il libero spettro, prometteva di produrre un nuovo commons nello strato fisico. Questi tre commons di internet lavorano insieme. Aumentano il valore delle risorse controllate, mettendole in contatto con quelle libere. L’opinione più diffusa è che queste risorse libere o in comune, producano benefici scarsi o quasi nulli. È come se fossimo in presenza di una cecità culturale, di una resistenza anche a prendere atto del ruolo dei commons. Come sostiene la prof.ssa Carol Rose, la nostra dottrina legale suggerisce chiaramente che certi tipi di proprietà non debbano essere tenuti necessariamente in mani private, ma essere aperti al pubblico. L’opinione dominante è che il mondo intero si gestisce meglio se suddiviso tra proprietari privati. Lo scopo ora è di indagare alcune delle ragioni su cosa si guadagna a mantenere le risorse libere? E cosa si perde invece a tenerle sotto controllo? Illustreremo varie risposte che insistono sull'importanza di mantenere libere le risorse. Si può iniziare con la tradizione legale americana. La prof.ssa Carol Rose ha trovato due ragioni per le quali la giurisprudenza americana ha mantenuto in comune una particolare risorsa, come la piazza di una città, una strada pubblica, ecc.

1) Queste risorse sono “fisicamente capaci” di monopolizzazione da parte di privati. Monopolio è potere, ed il monopolista sarebbe capace di esercitare quel potere sulla città.

2) Il pubblico ha la precedenza s di esse perché le stesse proprietà hanno maggior potere quando sono usate da un numero indefinito e illimitato di persone.

Mantenere la risorsa nelle mani della comunità è un modo per garantire che nessun singolo approfitti del valore creato da questa. Perché non è proprio giusto se il “titolare” della proprietà estrae da esso tutto il valore che desidera? Qui sta il massimo dell’analisi di Carl Rose, la quale spiega che la risorsa ha valore in quanto aperta; il suo valore aumenta solo perché ha molti utenti. Dunque il titolare della risorsa non può da se usufruire della risorsa poiché questa non avrebbe più alcun valore, quindi è sensato attribuire molto del suo valore al suo essere pubblico. In questi casi, tenere tutte le risorse nel commons, è un modo di assicurare che il valore sia preservato per tutti. Questi argomenti della tradizione sono radicati sia nell’equità che nell’efficienza. Gli economisti hanno allargato gli argomenti oltre l’efficienza. Sappiamo ciò che faremo con una certa risorsa, oppure come si può usarla, ma altre risorse non hanno uno scopo predefinito. Un esempio sono i cavi del telefono che, inizialmente, il loro uso era semplice: il telegrafo. Quando arrivò il telefono si presentò un secondo possibile uso per il cavo. Ciò portò a cambiamenti nei modelli del business. Quando si ha minore comprensione su come una risorsa verrà usata, bisogna a maggior ragione, tenerla in un commons e quando si avrà chiara la visione di quello che ne sarà l’uso, la si dovrebbe destinare ad un sistema di controllo. Quando una risorsa ha un uso chiaro, bisogna assicurarsi che tale risorsa sia disponibile all’uso migliore in tutti i sensi. Ciò si può ottenere utilizzando sistemi di proprietà. Assegnando un diritto di proprietà ai proprietari di tali risorse, si può essere certi che massimizzeranno la resa della risorsa. Ma se non vi è una chiara opzione per l’uso è meglio lasciarla nel commons. C’è una seconda linea di studi che suggerisce un’altra ragione fondata sulla maggior efficienza delle risorse aperte rispetto a quelle chiuse: deriva dalla teoria del management e aiuta a comprendere perché a volte può fallire sistematicamente il controllo della risorsa. Questa idea è stata resa familiare da Christensen in un suo libro e descrive una serie di decisioni perfettamente comprensibili che conducono imprese ben amministrate a perdere le opportunità offerte dal cambiamento tecnologico. Quello che queste aziende non possono fare è identificare e sviluppare tecnologie che rivoluzionino la consuetudine. La cecità che trattiene fissa un’azienda su un percorso, è motivata da probabili ritorni economici. Dalla loro prospettiva, cambiare percorso porta al fallimento. Christensen, in una sua opera, propone una strategia per curare questa cecità delle aziende. Se le aziende si concentrano sul continuo progresso e ignorano i nuovi mercati, se non colgono le tecnologie dirompenti capaci di produrre industrie radicalmente nuove ecco, in teoria, altre ragioni per mantenere almeno alcune risorse di massima importanza per l’innovazione di un commons. Se la piattaforma resta neutrale, l’azienda razionale può continuare a estrarre faticosamente profitti dalla strada che si è scelta. Questa è l’intuizione dell’end to end. È la ragione per cui la concentrazione di controllo non produrrà mai tecnologie dirompenti perché è un buon business si focalizza sul migliorare i propri strumenti e quindi ii fautori di tecnologie dirompenti non avranno granché di migliore. Questi vogliono nuovi mercati, ma i titolari del business ordinario vogliono lasciarlo così com’è. La società, secondo Christensen, dovrebbe sostenere i dirompenti, poiché porteranno ad un’economia più prospera ed efficiente. Questo nesso tra innovazione e architettura è stato anche studiato da due professori: Kim Clark e Carlss Baldwin, i quali hanno dimostrato l’importanza del design. Non tutte le risorse potrebbero o dovrebbero essere organizzate in un commons. Ci sono strade pubbliche e strade private, autostrade a pedaggio e senza. Internet è integrato a network completamente privati. L’aperto e il chiuso coesistono sempre e in questa coesistenza dipendono l’uno dall’altro. Ci sono delle ragioni per le quali alcune risorse debbano essere controllate e altre no. La differenza sta nella natura della risorsa e cioè nella natura di come questa è fornita. Questa era stata la tesi sostenuta da molti nell’illuminismo in particolare da Jefferson. Jefferson si riferisce ad una risorsa non competitiva. La sua argomentazione non significa che non dovrebbe esserci controllo che governi le risorse non competitive. Jefferson non criticava la protezione del brevetto, ma l’idea che questa fosse in qualche modo un diritto naturale. Questa distinzione fra risorse, consente di isolare diverse ragioni per le quali una risorsa potrebbe aver bisogno d’essere controllata.

1) Se la risorsa è competitiva ci vuole un sistema di controllo che assicuri che questa non si esaurisca.

2) Se la risorsa non è competitiva è necessario un sistema di controllo che assicuri che la risorsa sia creata.

In entrambi i casi il controllo è garantito tramite leggi, mercato oppure dalla tecnologia. I commons descritti da Carl Rose invece non sono governati dal mercato. I commons in Internet sono regolati diversamente. La consuetudine non è più il tipico controllare, sono i controlli imposti attraverso la tecnologia che governano molte di queste risorse. La società trae beneficio da risorse libere. La chiave sta nell’equilibrare libertà e controllo in modo da ottenere benefici da entrambi. Ma tale equilibri non è automatico. Bisogna bilanciarsi continuamente e in ogni periodo. Il livello di controllo potrebbe risultare insufficiente in una certa fase e il livello di libertà assicurato potrebbe essere minacciato con l’arrivo e il cambiamento di tecnologie di controllo. Stessa cosa vale per il problema del copyright su internet. Lo scopo del copyright è dare ad un autore un diritto esclusivo ma la Costituzione Americana limita questo diritto esclusivo, ad esempio il congresso potrebbe non dare il copyright a idee o negare il diritto ad un “FAIR USE”. Agli inizi della diffusione di massa di internet, c’era il timore che la tecnologia per la copiatura digitale avrebbe reso inutile i diritti concessi per legge e ciò spinse il congresso a espandere i diritti protetti da Copyright Act, in modo da equilibrare il cambiamento tecnologico prodotto da internet. I cambiamenti nell’ambiente di internet alterano l’equilibrio fra controllo e libertà nella Rete. Il controllo sta aumentando e ovviamente tale aumento porta a delle perdite. Si estende il controllo senza tener conto di quanto si perde. Il cambiamento procede come se il controllo fosse l’unico valore.

Parte seconda: Dot.Contrasti[modifica | modifica wikitesto]

Creatività nello spazio reale[modifica | modifica wikitesto]

Prima di internet innovazione e creatività erano diverse. Negli anni 70 qual era il contesto per la creatività? Quali erano i suoi limiti? Il contesto della creatività nell’arte è toccata da limitazioni allo strato fisico, di codice e contenuto. Per creare è necessaria una certa quantità di contenuto, a cui l’autore aggiunge una componente creativa che, nel caso di pochi, è pubblicata. Il contenuto cui deve attingere un autore cambia con la “scrittura”. Una parte, quella definita “creativa” è nuova. Il nuovo è però è costruito sul vecchio e quindi dipende da esso, ma viene dimenticato ciò. La possibilità di creare dipende, in parte, dalla possibilità d’uso e d’accesso del già creato. Nel presente ordinamento legale, una parte di questo contenuto è libera, un’altra controllata. Questo controllo è però ancora limitato. Sebbene un autore ha il diritto d controllare le copie del suo lavoro, quel diritto è limitato dai diritti di “fair use”. Citare una poesia per analizzarne la metrica o studiare un capitolo a scopo critico sono esempio di un uso che è “corretto” anche se il titolare di copyright lo proibisce. Inizialmente per proteggere i propri lavori bisognava registrarsi sotto un copyright e per via di tale incomodo, molti lavori non erano sotto copyright. La maggior parte del lavoro creativo era a disposizione altrui e il lavoro protetto lo era solo per scopi limitati. Con il tempo, essendoci stati cambiamenti, non c’era più la necessità di registrarsi per essere protetti da copyright, la protezione era universale. Come abbiamo già detto il controllo, non è per forza un male. Il copyright è parte fondamentale del processo creativo, ma ciò che Lessig vuole evidenziare è che se un controllo è bene, non ne consegue necessariamente che maggior controllo sia meglio. L’assenza di protezione del copyright rappresenta per gli autori tanto un beneficio, quanto un costo. Il Congresso ha fatto sempre in modo che i titolari di copyright fossero compensati e che una quantità adeguata fosse di pubblico dominio. Questi “compromessi” del governo, ovvero di trovare un equilibrio tra quali fossero i titolari di copyright da compensare e quale parte rendere di pubblico dominio diedero al titolare del copyright una garanzia di compensazione senza che questo avesse anche il completo controllo sull’uso del proprio materiale sotto copyright. Così il governo con il mutare delle tecnologie ha equilibrato i diritti di accesso con questi aumenti della protezione. Tali equilibrio però sono diseguali, l’effetto finale è un aumento del controllo. Allo stato di contenuto la legge intende stabilire un equilibrio tra accesso e controllo. I copyright garantiscono il controllo, ma solo alcune parti sono controllate, altre libere. Allo stato fisico, invece, ciò non esiste. La scrittura è prodotta e pubblicata su carta. La carte è oggetto fisico. Il controllo del mercato è la regola allo stato fisico. L’ostacolo principale alla creatività si trova nello stato di codice. Uno scrittore diventa autore quando il suo lavoro è pubblicato e la sua pubblicazione è un processo controllato dagli editor e sono loro a decidere cose esce sulle loro pagine. Tale limitazione allo stato di codice influenza le scelte dei creatori. L’autore, dunque, è limitato dalle aspettative della risposta allo strato di codice. Anche i mercati sono limitati, la tecnologia influisce profondamente sull’esenzione dei mercati. Le leggi sulla competizione mantengono competitivo questo sistema di trasporto. Si può scrivere ciò che si vuole, ma ciò che viene pubblicato deve piacere agli editori. La creatività nell’epoca oscura vive in un mondo privo di commons. Il permesso altrui è la condizione necessaria affinché il proprio lavoro sia visto altrove. Se il controllo sia o no necessario per un particolare contesto dipende, appunto, dal contesto. Risorse tenute in comune in una piccola comunità, avrebbero bisogno d’essere controllate nelle città. Le tecnologie della trasmissione sono cambiate e ciò ha portato alla produzione dei media. L’arrivo di internet spaventa e minaccia i media tradizionali poiché internet è per la distribuzione che non ammette controlli

Innovazione da Internet[modifica | modifica wikitesto]

Prima di internet innovazione e creatività erano diverse. Negli anni 70 qual era il contesto per la creatività? Quali erano i suoi limiti? Il contesto della creatività nell’arte è toccata da limitazioni allo strato fisico, di codice e contenuto. Per creare è necessaria una certa quantità di contenuto, a cui l’autore aggiunge una componente creativa che, nel caso di pochi, è pubblicata. Il contenuto cui deve attingere un autore cambia con la “scrittura”. Una parte, quella definita “creativa” è nuova. Il nuovo è però è costruito sul vecchio e quindi dipende da esso, ma viene dimenticato ciò. La possibilità di creare dipende, in parte, dalla possibilità d’uso e d’accesso del già creato. Nel presente ordinamento legale, una parte di questo contenuto è libera, un’altra controllata. Questo controllo è però ancora limitato. Sebbene un autore ha il diritto d controllare le copie del suo lavoro, quel diritto è limitato dai diritti di “fair use”. Citare una poesia per analizzarne la metrica o studiare un capitolo a scopo critico sono esempio di un uso che è “corretto” anche se il titolare di copyright lo proibisce. Inizialmente per proteggere i propri lavori bisognava registrarsi sotto un copyright e per via di tale incomodo, molti lavori non erano sotto copyright. La maggior parte del lavoro creativo era a disposizione altrui e il lavoro protetto lo era solo per scopi limitati. Con il tempo, essendoci stati cambiamenti, non c’era più la necessità di registrarsi per essere protetti da copyright, la protezione era universale. Come abbiamo già detto il controllo, non è per forza un male. Il copyright è parte fondamentale del processo creativo, ma ciò che Lessig vuole evidenziare è che se un controllo è bene, non ne consegue necessariamente che maggior controllo sia meglio. L’assenza di protezione del copyright rappresenta per gli autori tanto un beneficio, quanto un costo. Il Congresso ha fatto sempre in modo che i titolari di copyright fossero compensati e che una quantità adeguata fosse di pubblico dominio. Questi “compromessi” del governo, ovvero di trovare un equilibrio tra quali fossero i titolari di copyright da compensare e quale parte rendere di pubblico dominio diedero al titolare del copyright una garanzia di compensazione senza che questo avesse anche il completo controllo sull’uso del proprio materiale sotto copyright. Così il governo con il mutare delle tecnologie ha equilibrato i diritti di accesso con questi aumenti della protezione. Tali equilibrio però sono diseguali, l’effetto finale è un aumento del controllo. Allo stato di contenuto la legge intende stabilire un equilibrio tra accesso e controllo. I copyright garantiscono il controllo, ma solo alcune parti sono controllate, altre libere. Allo stato fisico, invece, ciò non esiste. La scrittura è prodotta e pubblicata su carta. La carte è oggetto fisico. Il controllo del mercato è la regola allo stato fisico. L’ostacolo principale alla creatività si trova nello stato di codice. Uno scrittore diventa autore quando il suo lavoro è pubblicato e la sua pubblicazione è un processo controllato dagli editor e sono loro a decidere cose esce sulle loro pagine. Tale limitazione allo stato di codice influenza le scelte dei creatori. L’autore, dunque, è limitato dalle aspettative della risposta allo strato di codice. Anche i mercati sono limitati, la tecnologia influisce profondamente sull’esenzione dei mercati. Le leggi sulla competizione mantengono competitivo questo sistema di trasporto. Si può scrivere ciò che si vuole, ma ciò che viene pubblicato deve piacere agli editori. La creatività nell’epoca oscura vive in un mondo privo di commons. Il permesso altrui è la condizione necessaria affinché il proprio lavoro sia visto altrove. Se il controllo sia o no necessario per un particolare contesto dipende, appunto, dal contesto. Risorse tenute in comune in una piccola comunità, avrebbero bisogno d’essere controllate nelle città. Le tecnologie della trasmissione sono cambiate e ciò ha portato alla produzione dei media. L’arrivo di internet spaventa e minaccia i media tradizionali poiché internet è per la distribuzione che non ammette controlli

Parte terza: Dot.Control[modifica | modifica wikitesto]

Il vecchio contro il nuovo[modifica | modifica wikitesto]

Pensiamo all’Unione Sovietica nei suoi ultimi giorni e coloro che occupavano, al suo interno, le massime posizioni di potere al suo interno: non si trattava di persone malvagie, anche se durante il periodo staliniano c’erano molti pazzi in giro, e non erano neppure molto ricchi, tranne alcuni. Nei tardi anni 80 tutti sapevano che il sistema era fallito. Perché però erano pochi disposti ad attivarsi per liberare quella società dal controllo statale? Come il management di ogni florida azienda, erano consapevoli dei miglioramenti marginali possibili se fossero rimasti in sella, ma non altrettanto dei miglioramenti se fossero saltati dalla sella. Ora si immagini i leader delle maggiori industrie alle prese con una tecnologia dirompente. Qual è la loro risposta razionale? È forse diversa? Perché i leader delle maggiori industrie non utilizzano qualche mezzo per proteggersi, piuttosto che abbandonarsi alle nuove tecnologie? Si attiveranno per proteggere il vecchio dalla minaccia del nuovo? Sono molte le strategie che i Soviet avrebbero potuto usare, la più ovvia sarebbe stata quella di usare la forza della legge per soffocare l’innovazione che insidiava il loro potere o l’uso di regole per segnare i devianti o utilizzare il mercato per indurre gli innovatori a non sfidare la loro posizione. Qualunque di queste tecniche poteva aiutare a rafforzare il potere dei Soviet attuali o per indebolire le possibilità degli sfidanti. Il cambiamento, si sa’, minaccia chi è al potere. Nella presente argomentazione, Lessig vuole analizzare il loro lavoro per cambiare Internet per una migliore protezione e la cultura legale che ne è il presupposto. Alcuni di questi cambiamenti sono legali, altri tecnici, altri usano il potere del mercato. Ma tutti sono guidati dal desiderio di garantirsi che questa rivoluzione non lì danneggi. Non c’è nulla di immorale in questo desiderio: questa non è una lotta tra bene e male, ma non dobbiamo stare a guardare mentre internet viene cambiato. Loro hanno i loro interessi, noi i nostri. Per chi crede che l’ambiente creativo prodotto da internet valga qualcosa, ci sono delle buone regioni per resistere a questi cambiamenti.

Controllare i cavi (e dunque lo strato di codice)[modifica | modifica wikitesto]

Dalla metà degli anni 90 la gente iniziò a vedere internet come un’ottima alternativa ai contenuti dei provider allora disponibili. Vi è un pezzo importante della storia di internet che viene trascurato, ovvero il ruolo che l’azienda telefonica ebbe sulla nascita della rete. Non si trattava di un cambiamento trascurabile, le chiamate prima erano brevi, duravano infatti dai 3 ai 5 minuti. Quando i telefoni cominciarono ad usare internet le chiamate crebbero in durata media, ovvero dai 17 ai 20 minuti. Ci si aspetterebbe che le compagnie telefoniche rispondano prontamente a ciò aumentando la tariffa, ma ciò non può avvenire poiché erano i legislatori a impedirglielo. Il presupposto dell’end to end è che l’intelligenza in un network debba essere situata ai margini del network e che questo, in sé, debba rimanere semplice. L’internet TCP/IP fu concepita come un network end to end. I protocolli del TCP/IP permettono semplicemente dati attraverso il network, ma non si preoccupano di cosa ci sia nei dati e di come tutto questo funzioni un network dovrebbe essere concepito in modo che ciascuna applicazione debba “iscriversi” prima di girare. Un programma spedirebbe al network una richiesta, ricevendo un’autorizzazione digitale. Si potrebbe anche immaginare un sistema di prezzi che controlla in che modo il network è usato. Il codice potrebbe far pagare gli utenti in base alla durata del tempo di connessione. L’end-to-end era il sistema usato dalla tv via cavo appena costruita. Il via cavo entrò, alla fine degli anni 70, nei suoi anni d’oro, il cui culmine sarebbe arrivato con Ted Turner che pensò che il via cavo potesse essere un network di trasmissioni competitivo. Così comprò l’accesso ad un satellite attraverso cui trasmettere contenuti. Dall’inizio degli anni 90 il via cavo era la modalità dominante d’accesso alla tv in America. Tuttavia avrebbe presto incontrato alcuni ostacoli. La tv via satellite era in competizione con quella via cavo. Mentre si lavorava per cercare di risolvere la minaccia del via satellite ci si rese conto che si poteva anche predisporre il via cavo a un servizio internet e, in questo caso, anche per fornire servizi telefonici. L’upgrade poteva così assestare il via cavo nel suo mercato primario. L’aggiornamento upgrade richiedeva una grande quantità d’investimenti e di sviluppo. Tuttavia la spinta verso un cambiamento nella tecnologia fu data dall’AT&T. L’AT&T cercava un modo per accedere al mercato internet e il suo presidente, Armostrong, decise che questa avrebbe dovuto avere la sua parte di futuro e studiò un piano secondo il quale avrebbe comprato il maggior numero possibile di sistemi via cavo e poi li avrebbe cambiati sotto un unico network abilitato al contenuto in banda larga. Il via cavo non era, e non è, l’unico servizio di banda larga disponibile. Vi è anche il wireless e la DSL che si è sviluppato molti anni fa. Dai test fatti nei laboratori DSL lasciano sperare che questa posso trasmettere dati ad una velocità di 52 megabyte al secondo e sarebbe straordinario! Ma per funzionare, la DSL, deve avere i cavi di rame dl circuito locali completamente puliti, e tale pulizia richiede un costo troppo alto (sebbene molti sostengano che il costo del via cavo e del DSL sia uguale). L’DSL però non ha l’opzione di gestire un network chiuso, questa è gestita da compagnie telefoniche e queste sono tenute a restare aperte. Si sta lavorando per un internet neutrale a un internet tipo “giardino chiuso”. Il network è costruito in modo da ammettere certi contenuti e certe applicazioni nel giardino; l’accesso a quanto resta fuori è “scoraggiato”. Già il via cavo ha esercitato questo potere per decidere quali applicazioni dovrebbero essere permesse e quali no e un fautore della tesi end-to-end ha notato che agiscono già come custodi delle rete ponendo limiti ai video e ai server. La posizione di questo libro può essere riassunta così: alla nascita di internet sia le regole che la legge produssero un ambiente end-to-end. Questo creò una piattaforma iniziale neutra, ma con il procedere di internet verso le piattaforme a banda larga, la tendenza è verso il controllo sui contenuti e applicazioni che possono girare su internet. La rete, in sintesi, si sta muovendo dal principio end-to-end che ha definito la sua nascita, verso qualcosa di assai differente. Molti non sono turbati da tale controllo. Il via cavo non è che una delle tecnologie a banda larga. La DSL non può essere chiuso e in molti contesi la DSL compete con il via cavo. Dunque se i clienti vogliono che il mezzo rimanga aperto possono preferire la DSL al via cavo e se scelgono la DSL, perché aperta, ci saranno pressioni affinché lo diventi anche il via cavo anche se preferisce rimanere chiuso. Saranno forze concorrenziali ad obbligarlo. Lessig nel suo libro mette in evidenza che non tutti gli aumenti di controllo guidati dal desiderio d’indebolire la competizione; non tutti avranno l’effetto d’indebolire l’innovazione. Anzi, se si deve procedere con l’investimento per costruire un network un certo aumento nel controllo potrebbe essere necessario. La caratteristica fondamentale che distingue internet da altri network prima di essa, è che potrebbe essere una piattaforma sulla quale costruire un mondo intero di attività. Le limitazioni su internet sono molte di meno, i suoi possibili usi sono inimmaginabili, ma è importante tener sotto controllo l’equilibrio di internet tra controllo e libertà. Lessig fa osservare che in realtà tale equilibrio non è né gestito, né controllato poiché non è per niente tenuto in considerazione.

Controllare i cablati (e dunque lo strato di contenuto)[modifica | modifica wikitesto]

Abbiamo detto fin ora che c’è una tensione tra controllo allo strato fisico e libertà allo strato di codice e che questa tensione influisce sugli incentivi per l’innovazione. La stessa tensione esiste allo strato di contenuto. La pressione a proteggere ciò che è controllato sta indebolendo sempre più le possibilità di ciò che è libero. Quando la rete cominciò ad apparire nella stampa popolare, molti erano in ansia su cosa essa avrebbe permesso. La pornografia era l’esempio più evidente di quest’ansietà. Il mondo imparò che la libertà nella rete significa libertà di chiunque, a prescindere dall’età, di guardare oscenità. La notizie erano piene di esempi di bambini che accedevano a materiale giudicato “dannoso ai minori”. Molti richiedevano al congresso di fare qualcosa, ma il congresso fallì. Nello stesso momento in cui i genitori entravano nel panico per la pornografia in rete, i titolari di copyright facevano lo stesso per il copyright. Proprio come i genitori temevano che non ci fosse modo di tenere sotto controllo i figli, così i titolari di copyright temevano di non riuscire a controllare i contenuti sotto copyright. Nel World Wide Web c’è molta immondizia. Molto materiale dannoso per i minori. Ora ci soffermeremo sugli sforzi delle aziende per regolare la pornografia nel cyberspazio. Il codice in questione è “censorware” (software censorio) ed è una classe di tecnologia che ha lo scopo di bloccare l’accesso a contenuti internet, impendendo al browser di collegarsi a siti bloccati. Molti siti però vengono bloccati solo perché si oppongono alla tecnologia stessa del censorware. Nel 2000 gruppi di attivisti per la libertà d’espressione denunciano un certo numeri di sistemi censorware bloccati. Nel 1999 due uomini decisero di voler mettere alla prova un censorware, un prodotto chiamato Cyber Patrol e svilupparono un programma, Cphack, con cui un utente poteva disattivare Cyber Patrol per poi vedere quali erano i siti che questo aveva bandito. Ma i proprietari del Cyber Patrol non erano entusiasti di ciò. La Mattel chiese successivamente che gli autori interrompessero la distribuzione del codice a rendere visibile la lista di Cyber Patrol, cosa contraria alla licenza sotto cui il programma era venduto e in quanto contrario alla licenza il loro uso di cyber Patrol era illegale. Ma nell’argomentazione della Mattel c’è qualcosa di strano. L’essenza del copyright è proteggere la Mattel da qualcuno che rubi Cyber Patrol e lo utilizzi senza pagare e non di proteggerlo dalle critiche degli altri. Proibire la critica non promuove il progresso. La Mattel ottenne un’ingiunzione mondiale contro la distribuzione di Cphack. E successivamente ottenne i diritti su Cphack e nessun altro poteva distribuirlo. I primi due secoli di storia del copyright sono stati due secoli di censura. Il copyright era lo strumento di censura. Internet, nella sua essenza, scombina la legge dello spazio reale. A volte ciò è ottimo, a volte pessimo. La questione che i politici si pongono è come rispondere a questo choc. Nel contesto del porno la risposta del tribunale è vedere e aspettare. Anzi questa risposta il tribunale l’ha data in contesti differenti: pornografia, privacy, tassazione: la risposta è stata sempre aspettare. Solo nel contesto del copyright la risposta è stata diversa. Hanno deciso in modo da assicurare che il controllo da parte del vecchio non fosse completamente indebolito dal nuovo. Internet espone al furto molti più contenuti sotto copyright di quanto non fosse prima del suo avvento. Ma internet fa anche altre cose come rendere possibile controllare l’uso del materiale sotto copyright molto più efficacemente di prima il controllo è proprio l’obiettivo di Hollywood. Il congresso potrebbe giocare un ruolo nell’assicurarsi che il potere del vecchio non ostacoli l’innovazione del nuovo. Potrebbe stabilire un equilibrio tra il diritto dei detentori del copyright a essere compensati e quello degli innovatori a innovare. A questo punto Lessig introduce il concetto di brevetto. Un brevetto è una forma di regolamentazione governativa. Se un inventore non piò ottenere un brevetto, avrà un minore incentivo a innovare. Senza un brevetto la sua idea potrebbe essere facilmente presa da altri e se ciò accade altri ne possono beneficiare senza pagare il costo. Lo scopo del brevetto è ottenere maggior progresso. Negli ultimi 20 anni è avvenuto un importante cambiamento. Prima degli anni 80 le invenzioni di software negli U.S.A non erano soggette alla protezione brevettale, ma agli inizi degli anni 80 i tribunali cominciarono a riconoscere le invenzioni di software come brevettabili e nei primi anni 90 i brevetti avevano preso il volo. Ciò che più colpiva di questa esplosione di leggi che regolavano l’innovazione era che i benefici putativi di questa regolamentazione, i programmatori erano grossomodo contro di essa, non avevano richiesto il cambiamento che fu imposto. Sostenevano che il sistema non era guasto e non c’era bisogno che lo aggiustasse Washington. Ma Washington non si lasciò spaventare la pressione per i brevetti i software con il tempo si estese. Ma nel 1998 la corte federale mise tale idea a riposo. La legge sui brevetti raggiunse le procedure di business. Il tribunale tutelò sia il brevetto del software che quello del metodo business. Entrambi erano, per il tribunale, invenzioni che potevano essere coperte dalle leggi sui brevetti. Così vi fu un’esplosione di richieste di brevetti per metodi business. Da 1000 richieste nel 1997 se ne passò a 2500 nel 1999. La legge sui brevetti è pensata per creare una barriera contro i furti di idee, in modo che gli inventori abbiano un incentivo a inventare e usare le proprie idee. Ma ci sono anche danni che tali brevetti possono produrre poiché l’espansione nella protezione di tali brevetti allontanerà dalla competizione il piccolo inventore non americano favorendo l’inventore americano. Inoltre i brevetto danneggia anche il codice aperto. Infine c’è anche il problema dell’hold-up (blocco), quando un inventore sta per far uscire un prodotto e scopre d’aver violato un brevetto. Questa storia sul pericolo dei brevetti trova ulteriore sostegno in James Buchanan il quale si riferisce, al problema dei brevetti in particolare a come molteplici e sovrapposte protezioni di brevetti possono creare un anticommons. Il controllo, quando complesso, può aumentare il costo d’uso di una risorsa e l’aumento di questi costi può indebolire l’innovazione. Dunque bisogna chiedersi se il controllo è necessario e fino a che punto può spingersi. L’impegno di una società aperta all’innovazione deve essere quello di lasciare che il vecchio muoia giovane. La legge non deve essere usata come strumento di difesa contro il nuovo. Bisogna che il cambiamento non venga ostacolato e che si mantenga sempre un equilibrio tra controllo e libertà.

Controllare il wireless (e dunque lo strato fisico)[modifica | modifica wikitesto]

La mappa dello spettro radiofonico degli U.S.A descrive, geograficamente, il tipo d’uso consentito in ogni particolare parte territoriale del paese. La Fcc prende una decisione riguardo a chi ottiene l’uso dello spettro, quando e a che condizione. Dire che l’azienda x ha una licenza Fcc significa dire che l’azienda x ha ottenuto dal governo il diritto di svolgere un certo tipo di business, usando certe frequenze radio. Oggi il diritto d’uso dello spettro è allocato sempre più attraverso le aste. Ai politici piacciono le aste, ma non allocano lo spettro nella sua totalità. Gli utenti possono condividere la risorsa solo quando vi è necessità d’uso e la condivisione sarebbe, poi, sotto controllo di un mercato o di altre strumentazioni tecnologiche. Sappiamo che il controllo del governo sull’uso dello spettro ha soffocato l’innovazione, continuerà a farlo fin a quando gli utenti avranno un canale politico attraverso cui potranno difendere i propri privilegi. Bisognerebbe spingersi verso un regime dove il diritto a innovare non dipenda dal permesso di qualcun altro. Essenzialmente sono presenti 2 regimi di questo tipo: secondo il primo lo spettro viene privatizzato e venduto sul mercato. L’acquirente sarebbe poi libero d’organizzare il proprio spettro nel modo che ritiene migliore. Sotto il secondo regime lo spettro è tenuto in un commons e condiviso in tempo reale grazie a delle tecnologie intelligenti per la condivisione. Ci sono vantaggi e svantaggi per entrambi i regimi. Il problema del commons è l’abuso e il regime di proprietà produrrà competizione. Ma non è necessario scegliere o il mercato o il commons, ma sarebbe bene far proprie entrambe le soluzioni e utilizzare i vantaggi di entrambe. Con la vendita dello spettro, ora, si crea un mondo in cui le risorse sono in mano di coloro che hanno maggior incentivo a fermarle. Il pericolo della vendita dello spettro è che gli utenti attuali saranno in grado di utilizzare lo spettro ottenuto per fare resistenza a quei cambiamenti che potrebbero minacciare i loro modelli di business. Con la vendita dello spettro, i gestori hanno un forte incentivo ad assicurarsi ricavi sufficienti per recuperare l’investimento fatto nello spettro. Il ruolo del governo dovrebbe essere quello di chi induce investimenti dove c’è una gran quantità di valore sociale da creare. È questa l’opportunità con lo spettro non sotto licenza. Gli oppositori a questa strategia sono 2: coloro che pensano che non sia necessario, che il mercato offrirà la giusta risposta senza esperimento con lo spettro aperto; e quelli che pensano non sia saggio, che lo spettro aperto è un pessimo modo di assegnare le risorse dello spettro. I primi pensano che il mercato abbia incentivo sufficiente a trovare l’uso ottimale dello spettro. Peter Huber è un buon esempio di ciò. Huber non respinge le prediche di Gilder, il quale diceva che bisogna allocare lo spettro come un commons, ma sostiene che si potrebbe giungere al mondo di Gilder, dello spettro come commons, prima mettendolo tutto all’asta e poi lasciando che il mercato riunisca i diritti se tale metodo si dimostra efficiente. Ma Lessig dubita di ciò. Si può immaginare che ci sono piccoli proprietari terrieri che vendono la loro terra ad agenti immobiliari e questi a loro volta ad altri agenti immobiliari, ma è difficile immaginare che da questa compravendita di diritti si possa arrivare fino al commons di spettro descritto da Gilder. Dunque Lessig non considera molto la proposta di Huber. Mentre i teorici fautori del mercato combattono quelli dei commons, il governo americano non segue nessuna delle due strade. Anzi segue politiche che sono contrarie a liberare lo spettro sia attraverso la formula del commons, sia attraverso la competizione di un mercato efficiente. Il governo è pressato dai politici e quindi, a sua volta, preme per la vendita di diritti allo spettro. La tesi di Gilder assume toni irrazionali nelle aziende che gli economisti sono pronti ad attaccare. Il denaro speso nello spettro è un costo perduto. Un business razionale ignorerebbe il costo perduto, già speso, e si concentrerebbe sul modo d’ottenere il massimo guadano possibile dai beni che ha. Ma la paura di Gilder non è solo dovuta all’irrazionalità, c’è anche la paura che degli attori potenti possano agire per rallentare l’innovazione che li danneggia e ci sono tanti altri talloni d’Achille che permettono l’eliminazione efficace di importanti nuove tecnologie. Vi è l’opportunità d’aprire e liberare un cruciale strato dell’architettura della comunicazione. Aprirlo ridurrebbe la pressione su altri canali d’accesso a Internet. Mantenerlo libero incoraggerebbe un’ampia gamma d’innovazione del modo d’uso della risorsa. Ma al posto d’incoraggiare tale risorsa, ci si comporta in modo da vanificare le opportunità che questo commons potrebbe creare. Ancora non si ha un completo regime di proprietà che assegni e controlli lo spettro. Eppure corriamo verso la negazione dell’opportunità di un equilibrio, spinti da chi ha meno da guadagnare in un mondo in equilibrio. Ci si affretta ad assegnare il diritto di proprietà all’aria poiché non possiamo immaginare che l’equilibrio possa fare di meglio.

Che cosa sta succedendo?[modifica | modifica wikitesto]

Nei primi anni 70 la Rca sperimentò una nuova tecnologia per distribuire i film su nastro magnetico. I ricercatori ambivano a trovare un controllo sull’uso di quella tecnologia. Il loro scopo era una tecnologia che permettesse il controllo del film, in modo che il proprietario del film potesse massimizzare i guadagni della distribuzione. La tecnologia scelta, alla fine, era relativamente semplice: una volta riprodotto il video il film si bloccava. In questa parte del libro Lessig vuole mettere in evidenza i cambiamenti dello spettro radiofonico e il fatto che non seguono le ragioni di Hollywood. Tale cambiamento è stato, o minaccia d’essere, il passaggio da un mondo in cui domina il commons a uno dove si reclama il controllo. Questi cambiamenti avranno delle conseguenze che blinderanno il vecchio contro il nuovo. Si soffocherà la creatività se sarà al di fuori del quadro preferito dei detentori del controllo. Se ci fossero delle ragioni che rendono questo cambiamento necessario, anche Lessig lo condividerebbe, ma con tali cambiamenti si avanza solo a ritroso. Si stanno spostando risorse dal commons a un sistema di controllo senza ragione. Il cambiamento insidia interessi vigenti, canalizzarlo è spesso la strategia migliore. Chi occupa la posizione minacciata dal cambiamento, rappresentato da internet, ha un forte interesse a provare a canalizzare quel cambiamento. Ma la cosa più importante che Lessig vuole mettere in evidenza è una cecità che affligge la politica culturale americana in generale. C’è una mania nei confronti della proprietà e del controllo da non vedere i benefici delle risorse non perfettamente controllate. Il controllo si sta espandendo in tutti e 3 gli stati di comunicazione di Benkler: allo strato fisico vi è un’architettura di controllo, allo strato di codice se preferisce il codice chiuso a quello aperto e allo strato di contenuto con le regole per facilitare la distribuzione di contenuti che favoriscono sempre più il controllo di quella distribuzione rispetto al libero fluire della rete originale. Lessig ci fa notare che mentre la vecchia rete viene sostituita alla nuova, mentre i vecchi interessi riescono a proteggersi da i nuovi, c’è una scelta da fare che non si può evitare: se adottare questo ritorno all’architettura della creatività che ha definito la vita moderna o adottare l’architettura che era la rete. La rete originale proteggeva aspetti fondamentali dell’innovazione. L’end-to-end significava che le nuove idee erano protette, ma tutto ciò sta cambiando e mentre cambia, alle minacce alla libertà si aggiungono quelle all’innovazione.

Alt.Commons[modifica | modifica wikitesto]

Questo camino a ritroso, fa notare Lessig, non è necessario né completo. Si è ancora in tempo per indirizzare le scelte in un’altra direzione. La questione sta tutto nel volerlo. C’è la volontà di fissare dei principi che guidino il prossimo passo dell’evoluzione di Internet o si lascerà il controllo a coloro che non hanno interesse né per internet, né per la sua innovazione? Lessig illustrerà alcuni di questi possibili cambiamenti che dovrebbero esserci nello strato fisico, di codice di contenuto. Lo strato fisico è il meno idoneo per la riforma, dato che è composto da spazio reale e le limitazioni dello spazio reale sono…reali. Lo strato fisico comprende i computer che si connettono alla rete, i cavi a cui sono connessi i router che alimentano questi cavi e lo spettro. La maggior parte di questi elementi sono di proprietà. Ma le stesse virtù del controllo non valgono non valgono nel caso dello spettro. Lo spettro non è stato costruito da nessuno e non c’è uno speciale mandato che giustifichi uno speciale controllo sullo spettro. Una soluzione, qui, sarebbe aprire dei canali di spettro. Aprire dei canali di spettro, però, non è l’unico mutamento possibile. Ci sono altre iniziative che il governo potrebbe prendere per aprire l’accesso allo strato fisico, non diventandone proprietario. Qui il modello è il sistema autostradale americano. Queste sono usate “gratuitamente” o dietro il pagamento di un pedaggio. In ogni caso le autostrade funzionano come un commons. Lo stesso atteggiamento dovrebbe guidare il governo per l’infrastruttura fisica che sostiene la rete. Così, come ha speso soldi per costruire le autostrade, potrebbe spenderne per la costruzione dell’autostrada dell’informazione. Lo strato di codice è il cuore di internet ed è la sua particolare architettura ad essere speciale. Se si vuole garantire l’innovazione della rete, bisogna proteggere lo strato di codice, lo spazio in cui il codice stabilisce il flusso dei contenuti e delle applicazioni. È qui che, all’inizio Internet adottò il principio end-to-end, poiché assicurava che il controllo agisse dal basso verso l’alto e ciò che accadeva perché erano gli utenti a chiederlo. Il pericolo si presentò quando il controllo della piattaforma poteva tradursi in capacità di difesa dalla nuova innovazione. Ma se l’innovazione è il nostro scopo, la politica dovrebbe minimizzare la minaccia di tale comportamento strategico. Per prima cosa il governo dovrebbe incoraggiare lo sviluppo di codice aperto e seconda cosa, il governo dovrebbe continuare ad assicurare che nessun grosso concorrente di internet sia capace di architettarne lo spazio in modo da imporre il proprio comportamento strategico. La competizione è assicurata regolando le compagnie telefoniche e richiedendo loro la vendita separata di servizi d’accesso locali. Ciò assicura che le compagnie telefoniche non facciano scherzi. I cambiamenti allo strato fisico e di codice sono importanti, ma il più importante è quello allo strato di contenuto. L’idea chiave che noi, dice Lessig, dobbiamo riconquistare è che il controllo del contenuto non deve essere perfetto, idee ed espressione devono essere libere. L’iniziale scopo della legge copyright era proprio questo: equilibrio tra controllo e libertà, ma vi è ora un alleato a queste leggi equilibrate che minaccia di distruggere tale armonia: il codice. La tecnologia oggi permette un controllo quasi perfetto sul contenuto e la sua distribuzione. Tale perfetto controllo minaccia d’indebolire l’innovazione promessa da internet. E per resistere a tale minaccia occorrono cambiamenti specifici. All’inizio lo stato sul copyright rendeva molto difficile ai proprietari la registrazione del proprio lavoro. Oggi il copyright, invece, entra in vigore automaticamente e si estende per la durata della vita del autore più 70 anni, senza che questo faccia alcun sforzo per continuare a goderne. Tale cambiamento è bizzarro. I titolari di copyright non dovrebbero vedersi negare la legittima protezione sul copyright, ma bisogna accertarsi che il raggio dei monopoli non sia più ampio del necessario. Gli autori ed i creatori meritano di ricevere beneficio dalla loro creazione. Ma quando questi cessano, ciò che creano dovrebbe diventare di pubblico dominio. Il lavoro “pubblicato” da un autore, dice Lessig, dovrebbe essere protetto per un periodo di 5 anni successivi alla registrazione, e quella registrazione potrebbe essere rinnovata 15 volte. Se non viene rinnovata, il lavoro cede nel pubblico dominio. La registrazione dovrebbe essere semplice. Il copyright office degli U.S.A. potrebbe aprire un sito in cui gli autori registrano il proprio lavoro. Poi, per rinnovare il copyright, devono pagare delle tasse e queste potrebbero aumentare nel tempo o dipendere dalla natura dell’opera. Ma molte industrie sul copyright rifiutano ciò poiché ritengono sconveniente che un autore, per problemi tecnici, possa perdere il diritto copyright. Ma se per problema tecnico si intende ritardo nel pagare l’iscrizione o smarrire il modulo per pagare, il copyright office degli U.S.A. dovrebbe personale. Il fatto che molte più opere diventano dei commons, porta grandi benefici alla creatività. La caratteristica più sorprendente della legge sul copyright è la sua capacità di dare, ai proprietari, il potere di controllare l’innovazione nel contesto delle rete. La rete ha creato un mondo in cui il contenuto è libero. Napster è l’esempio più rilevante di questo mondo, ma non l’unico. Gli interessi protetti dalla legge copyright possono essere garantiti dalla tecnologia oltre che dalla legge. Se c’è ragione di un equilibrio nella legge sul copyright, bisogna preoccuparsi dello squilibrio creato da tale codice. Se la legge sostiene il codice bisogna preoccuparsi. La protezione che riceve il copyright non è solo quella provata del codice, ma anche quella pubblica della legge. Dunque bisogna limitare le protezione della legge. Il congresso dovrebbe chiedere espressamente che qualunque legge protegga i sistemi di protezione del copyright non ecceda i limiti della legge stessa sul copyright. La stessa cosa vale per i contratti. Se l’equilibrio nella legge sul copyright è importante, non dovrebbe essere indebolito da un tipo di legge che è quella dei contratti. L’urgenza nel cambiamento nell’ambito dei brevetti è ancor maggiore. I bretti, in quanto tali, non sono negativi, lo sono solo se non producono alcun bene sociale e ciò avviene quando giovano a certe aziende a spese dell’innovazione in generale. Il congresso dovrebbe richiedere all’ufficio brevetti degli U.S.A di svolgere una revisione della propria regolamentazione sui brevetti. Se tale forma non riesce a recare più benefici che danni, il congresso dovrebbe ritirare questa forma di protezione e apportare altri cambiamenti, che procurino il meno danno possibile. Ci sono una serie di riforme che sono state sottoposte all’ufficio brevetti degli U.S.A e molte sono estremamente valide. Per molti anni il software non poteva essere brevettato e ciò significa che l’ufficio brevetti degli U.S.A. non ha raccolto dati sullo stato dell’arte nel campo dei brevetti. Per come sono oggi le cose, invece, il richiedente del brevetto ha bisogno di riportare unicamente ciò di cui è a conoscenza (e non come prima che oltre il modulo per richiedere il brevetto, doveva aggiungere una lista in cui esponeva “l’arte precedente” cioè precedenti invenzioni che possono essere collegati all’invenzione per la quale si cerca il brevetto). Il richiedente, ora, deve dichiarare solo ciò che sa o avrebbe dovuto sapere. Ciò crea nel richiedente un forte impulso a riscoprire l’arte che lo ha preceduto e aiuterebbe l’ufficio brevetti degli U.S.A. a capire se il brevetto deve essere concesso oppure no. Tali cambiamenti sono solo l’inizio, ma se messi in pratica un inizio importante poiché, se applicati nell’insieme, contribuirebbero a mantenere aperto lo spazio per l’innovazione e libere le risorse per l’innovazione.