report mindthegap

a seguire i report dei vari incontri

Report I assemblea big data mart 29 novembre

abbiamo discusso di:

La scienza non è neutrale, è una sovrastruttura

Non produce tecniche e risultati indipendentemente dal contesto
socioeconomica nella quale è calata, essa è votata a rispondere alle
domande che la società tutta solleva, alle necessità pratiche di una
comunità che ha bisogno di avanzamenti tecnbologici, ma offre soluzioni
e interpretazioni che riflettono sia la domanda sia il contesto.
ci vorrebbe un esempio, termodinamica e rivoluzione industriale 1

La scienza dovrebbe eludere la ricerca di denaro (o meglio, profitto)
e percorrere le strade che più sono necessarie a chiarire i dubbi della
comunità sulle questioni aperte.
tuttavia così non fa, piuttosto fa grandi investimenti di tempo e
capacità in ambiti che sono massicciamente ricompensati o volti agli
interessi del capitale (si pensi anche all’informazione quantistica, che
da qua a 20 anni bene che va la usano i militari, o al limite le
banche); ricerche che avranno sia un risultato che un compratore.
I finanziamenti privati sono una fonte non indifferente di lavoro e sono
anche ben visti nell’accademia e sono un ulteriore elemento di
concentrazione della ricerca su pochi ambiti ( QUESTA COSA ANDREBBE
SOSTANZIATA!)
Siamo tutti concordi che la scienza deve essere al servizio della società
così da risolvere i problemi che la comunità affronta quotidianamente,
ad oggi la questione climatica, della reperibilità di cibo e acqua e
l’emancipazione dal lavoro. Inoltre e anche la ricerca di base ha
risvolti sul lungo termine e deve essere garantita.

Parliamo poi dell’influenza della società sulla scienza:
L’idea che un ragionamento scientifico proponga dei modelli neutrali e
oggettivi, ovvero validi in ogni tempo storico e per ogni punto
d’osservazione critico della realtà (marxista, capitalista, feudale,
animista, monoteista, punk, drogato etc..) è passibile di essere smentita.
Questo tema può essere affrontato attraverso numerosi punti di vista,
ciascuno legittimo. Nel libricino di filosofia della scienza citato 2
spesse volte l’aspetto è affrontato sia attraverso la sociologia della
conoscienza scientifica (SSK 3) che pone delle domande ad un livello
“ante-scienza” ovvero prima di inquadrare il mondo in un ottica
scientifica possiamo chiederci quali sono le proprietà che tale scienza
dovrebbe avere:
-è possibile avere un altro modello di conoscenza della reltà?
-quali sono i fini e i risultati che l’indagine della realtà dovrebbe
raggiungere?
-in che modo essa interagirà con il resto della società?
le risposte sono molteplici, magari rileggiamo il libricino, e
sottolineano che seppure non esiste al momento attuale un alternativa
concreta ciò non deve essere confuso con la pretesa di universalità
della comunità scientifica.
L’altro approccio è certamente la filosofia della scienza 4, ovvero
quella branchia della filosofia che si propone di capire la legittimità
della logica, e della conoscenza in generale. Questo ambito è certamente
molto complesso e andrebbe letto e approfondito di più, i punti cardine
sono comunque 2, l’evoluzione della teoria della logica che è passata
dal buon CArnap del circolo di Vienna che dichiarava che solo le frasi
che potevano essere logicamente verificate potevano essere parte della
produzione filosofica e che esse era esatte, al teorema di incompletezza
di Goedel che dimostra come un sistema logico non puo essere
completo|coerente in se stesso, ovvero una macchina non sa se finirà in
un loop infinito o no, etc… etc… “La frase seguente è falsa, la
frase prima è vera”. QUreste cose sono più o meno risolte con trick
assurdi della logica (vd Davidson) ma il problema rimane e Quine (Web of
Science) e Feyerbrand danno un colpo definitivo alla questione nel 1940
asserendo che se anche la scienza utilizza una trattazione logica per la
deduzione di risultati, e anche se l’esperienza e i postulati possono
essere presi a fondamento della rete di conoscenza che andiamo a
costruire abbiamo comunque la necessità di imporre una teoria della
sintesi dei risultati,e che essa è imposta dal contesto socioeconomico.
L’altro approccio è tutto interno alla fisica e parla di Popper e Khun e
Lakatos, che negli anni ‘50 mettono in dubbio l’idea di un percorso
lineare della storia della scienza, piuttosto di un continuo di
rivoluzioni scientifiche alternate a produzioni di risultati in linea
con i “dogmi” (i paradigmi) della scienza contemporanea.
chi volesse approfondisse.

qualcuno durante l’assemblea ha riassunto tutto questa:
influenza non diretta della scienza sulla società, culturale e passiva
per via dei valori proposti e legati al regime economico.

altro estratto:
“vincolo tra scienza e società —> le giustificazioni pratiche danno
senso alla scienza, il vincolo che la società offre alla scienza è
meramente economico, mentre dovrebbe essere non utilitaristico ma
sociale, ovvero volto alla soddisfazione delle necessità della società
tutta, ovvero delle persone.”

Big data

per cosa sono i bigdata date un occhiata a wikipedia.
Per considerare i lati positivi, avere molti dati su grande scala ci
permette di avere una visione sulle tendenze della società, accantonando
la necessità della privacy dobbiamo valutare quali benefici potremmo
avere: studi di carattere sociologico/antropologico, ad esempio un paper
che ottimizza i semafori a seconda del traffico.
per elaborare quei dati servono un sacco di buci di culo. la produzione
di dati viene promosso attraverso modelli di interazione sociale che
certamente non sono neutrali, sono votati ad una visione positivistica
della realtà, dove solo il concreto conta e le emozioni possono essere
ridotte a parole o a meme. inoltre il sapere che tu produci ha un
trademark, ovvero sono un set di dati che
non sono pubblici e elaborabili da tutti. possiamo intendere e valutare
anche i bigdata, come un aggregato di dati °anonimizzati°, mettendo a
parte la discussione sulla profilazione degli individui e concentrandoci
su l’aspetto “psicostoriografico” della faccenda.
Le tecniche di analisi e l’elaborazione di statistiche in buona parte
viene utilizzata per fare analisi socialmente reazionarie o per
assicurare profitto → il male non è insito ma dipende dall’utilizzo che
se ne fa!
1) violano la privacy e danno strumenti potenti a chi non se li merita
2) propongono una neutralità dello strumento di analisi e questo
algoritmoti restituisce un modellodi verità che però sei tu ad averlo
inserito!
3) ideologia compressa in forma scientifica, i modi che propongono per
la raccolta di dati non sono neutrali, allo stesso modo c’è una pretesa
di oggettività per gli algoritmi di produzione e sfruttamento del lavoro.

avrei voluto scrivere di più sui big data ma mi sono limitato a scrivere
estratti dell’assemblea, se qualcuno se la sente è il benvenuto a
metterci le amni e riscrivere!

PS
sul tema social network che tocchiamo tangenzialmente vorrei segnalarvi
questo collettivo di scrittori http://www.ippolita.net/
di cui presenteremo il libro il 7 dicembre alle 21 al forte prenestino

2
www.amazon.com/Introducing-Philosophy-S...

Report 13 dicembre

ciao
ecco un report di martedi’ 13, prego integrate che poi lo mettiamo in wiki.

Martedi’ 13
Abbiamo iniziato la discussione divangando un po sulle ragioni del
nostro percorso e ripercorrendo l assemblea precedente al fine di
ricreare un terreno comune per la discussione.

A seguire Andrea ha proposto un report di pubblico con Renato Curcio,
dove presentava il suo libro, egemonia digitale:
un potere egemone crea un immaginario lavorativo e culturale, tale che
esso viene riconosciuto come potere e non ha necessita’ di imporsi con
la forza perche appartiene gia alla cultura dominante.
in particolare parliamo dell imposizioni di strumenti di controllo
tecnologico nel lavoro, ad esempio alla leroy Merlen mettono dei
braccialetti che prendono i tempi rispetto alla media dei alvoratori!
questo implica una nuova concezione del tempo e della velocit’ e del
lavoro. il tempo e la produttivita vengono valutati in modo istantaneo
etc... integra andre’!
Questa produttività però non è valutabile numericamente perche richiede
una serie di attenzioni e di passaggi che non sono quantificabili.
“definire uno standard attraverso una media è asserire che tu lavori
male se sei sotto la media e quindi alzare la media in modo continuo
ricalcolandola ciascuna volta. Il processo di sfruttamento si pone
allora come un approccio competitivo al lavoro comune. devi migliorare
lo standard ciascuna volta andando a contrapporsi l un l altro.”

a proposito di numeri
la rivoluzione digitale impone l introspettizzazione del pensiero
quantitativo nella vita quotidiana!
il punto, allacciandosi ai bigdata, è che propone un analisi
quantitativa della vita delle persone anche su piani che non hanno
niente a che fare con i numeri, ad esempio la popolarità. questo tipo di
analisi quantitavi deriva da una concezione del lavoro e dalla volontà
di aumentare la produttività
ok, qua sono stato molto stringato, ma era difficile avere il filo, blu
e giulio, integrate, vorrei riguardarmi i filmati del festival dell’altr
anno in tema merito e valutazione ...

il tema della valutazione e del dare valore implica una complessità e la
necessità di scegliere un metro di misura che deve essere oggettivo e
quindi inumano.
l’analisi dei dati e della ricerca di valutazioni è in qualche modo da
separare

È vero che l analisi numerica è molto indotta nello strumento social
network, ma non è la prima volta che viene proposto come modello di
valutazione, ad esempio prendiamo gli Invalsi o il modello educativo in
generale.
Come valutiamo i dati sta a noi, non è insito nell’analisi di grande
quantità,
il punto è come questi meccanismi di numerificazione vengono riportati
in ambito accademico → cfu, citazioni > i metodo

Machine Learning
abbiamo poi fatto un focus di 20 mins sul Machine Learning con Manuél,
che non è davvero riproducibile per mail, però si potrebbe linkare
qualche manualetto sul tema.
io se volete ho delle slide ma non sono molto chiare, qualcuno ha
qualcosa da consigliare?

news.mit.edu/2016/machine-learning-syst...

scusate per l asciuttezza.
ccc

Report II assemblea big data mart 20 dic

Apertura con breve definizione del tema per l’incontro di Gennaio ( Scarceranda) . Approvata senza obiezioni la proposta di repressione e tecniche di controllo sociale. Come e dove i bigdata sono usati a questo scopo.

Riprendiamo discorso su come grazie alle nuove tecnologie si acuisca sempre più il controllo sui lavoratori (esempi vari). Le questioni legali che si aprono in questo modo sono molte. Essendo i big data prodotti e utilizzati in molti contesti differenti, ciascun campo ha la sua applicazione giuridica.
Problema della valutazione sempre presente.
Tutto ciò riporta al libro di Curcio, interessante soprattutto per il taglio sociale che propone. Proviamo a presentarlo in università? Ce lo fanno entrare? Da concludere discussione a riguardo.
Schiettino è innocente.

Con domanda di Alice si apre discussione su teoria e prassi. Il fine del percorso MDG è dentro e fuori di lui: è porre basi per proporre cambiamenti, prendere coscienza dei processi viziati per tentare intervento. L’anno scorso il prodotto è stato il doc finale, sia in cartaceo che digitale. Ci si ripropone di migliorare la sua diffusione quest’anno. Quasi tutti sono anche favorevoli in teoria a intervenire per modificare quelli che risultano e risulteranno essere i nodi problematici di bigdata.
(non mi ricordo se era su questo che si stava argomentando quando si è interrotta la discussione)

Biologia e Bigdata:

economicamente è un settore trainante su cui si investe molto (aziende farmaceutiche e fondi statali, europei, Usa), e le sue applicazioni biomediche sono di interesse generale.

Dagli anni ‘80 ad oggi informatica e biologia sono state due scienze sorelle che si sono trainate a vicenda. La prima si è nutrita delle nuove e complesse domande che portava il mondo biologico per sviluppare nuovi strumenti di calcolo e analisi, la seconda si è servita di questi strumenti per fondare basi rigorose a questa scienza fin’ ora un po’ fuffosa. Nasce così la bioinformatica.
In particolare un evento-esempio eclatante a riguardo è stato l’Human Genome Project (1991-2003, quando è terminata la 4 sequenziazione. solo allora si poteva avere abbastanza certezza sui risultati ottenuti). Nell’albito di questo progg sono stati destinati già in partenza parte dei fondi a fronteggiare i problemi di ordine etico e giuridico che ne sarebbero derivati (clonazione, OGM, medicina personalizzata). Ora le sequenze geniche ottenute (e anche altre) sono di dominio pubblico su alcune banche dati (GenBank la maggiore, gestita dall’NCBI, centro di ricerca di stato americano per l’informazione biotecnologica).
Il sequenziamento del DNA è un approccio genomico di tipo strutturale, che richiede potenza di calcolo, ma mai come l’approccio funzionale, che invece prevede lo studio dei processi di espressione genica e delle interazioni fra DNA, RNA, proteine, ambiente. Spesso e volentieri mancano per questo anche le capacità computazionali.
Dibattito: che poteri predittivi offre tale studio? Che possibilità di cura delle malattie? Si può arrivare ad un determinismo rispetto ai sistemi biologici con questi metodi?

Report III assemblea bigdata 17 gennaio

pdf version

Report Assemblea 31/01

-Report brain storming su documento mind the gap
Abbiamo ragionato sia sui contenuti sia su come strutturare il documento.
Alleghiamo qui la sruttura ipotizzata.

Durante assemble a ci si interroga su cosa siano effettivamente i big data.
Se io utilizzo le statistiche fatte con i big data sui profili FB per “giudicare” il profilo FB di una persona (eventualmente l’aspirante ad un posto di lavoro), è effettivamente una tecnologia big data? Ci riferiamo ai big data solo come aggregati di dati anonimi che vengono utilizzati per fare machine learning?
In generale chiarire bene che ci sta ambiguità e che tanti aspetti necessitano di allargare il discorso alla digitalizzazione della vita in generale.

Problema: Si può rimanere fuori da questo processo? Stiamo demonizzando la tecnologia? E’ possibile pensare ad una educazione digitale?
Rivoluzione digitale velocissima non ci è stato un altrettanto veloce processo di metabolizzazione di questi cambiamenti. In realtà bisogna distinguere tra l’idea della tecnologia e la tecnologia così come è in questo contesto sociale, dunque a cosa mi educo? Dovrebbe esserci un parallelo progresso di pensiero e spirituale che però deve essere in grado di produrre una tecnologia diversa. Tecnologia conviviali ivan ilic. Stiamo in un momento in cui bisogna prendere posizione su queste tecnologie. Mettiamo un capitolo “nuove proposte” nel documento. Partecipiamo ad hackmeeting e collaboriamo, proviamo a immaginare un social network diverso? Possiamo ripercorrere il processo in cui metti la tua idea di mondo nella tecnologia producendo la propria tecnologia. Dall’altra parte si potrebbe produrre la propria tecnologia in base all’esigenza più specifica della singola comunità tipo accatagliato per fisica. Vogliamo produrre nuove tecnologie rimanendo “haters” delle tecnologie stesse oppure proporne di nuove riconoscendo che dispositivi come facebook etc. rispondono in qualche modo a dei bisogni che abbiamo?

Bella a Tutti

Report Convegno SEFIR 030317

Convegno SEFIR “Si può vivere senza scienza?”

Talk “Big Data e metodo scientifico”

A cura del Prof. Giovanni Pistone (http://www.giannidiorestino.it/) di formazione statistico/matematica e Francesca dell’Orto filosofa.

Si parte commentando l’articolo di Chris Anderson uscito su Wired (https://www.wired.com/2008/06/pb-theory/) dal titolo “The End of Theory: The Data Deluge Makes the Scientific Method Obsolete” che abbiamo già incontrato in altri incontri sui big data. In particolare il relatore fa notare che la frase citata nell’articolo “All models are wrong, but some are useful” appartiene allo statistico inglese George Box e che dunque ci si sta riferendo ad un preciso tipo di modelli. La tesi fondamentale di Anderson è che i big data renderanno obsoleta la necessita di formulare dei modelli nello studio dei fenomeni e che le leggi di dipendenza delle variabili rilevanti del problema emergeranno attraverso lo studio delle correlazioni in questi grandi agglomerati di dati.

A questo punto il relatore sottolinea la differenza sottile ma sostanziale tra un modello statistico ed un modello fisico.

1) In un modello statistico si ipotizza una relazione matematica a priori della quale si lasciano dei parametri i quali vengono fissati (con annesso errore) dall’analisi dei dati (quello che si fa in un fit).

2) Un modello fisico si propone di arrivare alla suddetta relazione matematica a partire da principi primi (equazioni della dinamica etc…)

Per esempio:

Keplero arriva alla formulazione delle sue leggi (orbite ellittiche con determinate proprietà) attraverso l’analisi dei dati di Tycho Brahe.

Newton arriva all’ellitticità delle orbite partendo dalle leggi gravitazionali di attrazione tra i corpi celesti.

Chiarito ciò capiamo che quando Anderson afferma che “non avremo più bisogno di modelli” sta intendendo che non vi sarà più bisogno di fare ipotesi a priori per poter analizzare i dati. Dunque già in partenza lo stesso Anderson si contraddice da solo perchè il procedimento teorico di cui si enuncia la fine comprende solamente l’approccio statistico allo studio dei fenomeni e non quello fisico.

Andando però a esaminare il tipo di algoritmi che si utilizzano per l’analisi dei big data si scopre che molti di questi contengono implicitamente delle ipotesi a priori. Ad esempio l’algoritmo di convoluzione usato nello studio delle immagini assume che queste abbiamo una determinata struttura locale (penso intendesse che la correlazione spaziale dei pixel non decade troppo velocemente, pixel nero vicino pixel nero con molta prob).

Dopo la descrizione di qualche algoritmo di analisi dati Pistone inizia a parlare di google.

Dati di google = sequenza delle domande degli utenti al motore di ricerca con tutti i metadati annessi.
Machine learning = dando in pasto in modo furbo (reti neurali/deep learning) queste query ad un computer questo impara qualcosa? E che tipo di capacità acquisisce? Esempio del correttore ortografico.

Cosa interessante: Google ha rilasciato pubblicamente alcuni algoritmi con cui analizza i suoi dati, da questo si evince che il vero guadagno di google sta nella proprietà dei dati piuttosto che nel modo smart di analizzarli.

Altra cosa interessante: tutto quello che sappiamo su google ci arriva tramite le conferenze pubbliche dei suoi dirigenti (Annamosele a cercà).

Ragionamento sul potere predittivo di questi dati. L’analisi dati non è predittiva, l’esistenza di un nuovo pianeta (plutone) senza una solida base teorica con la quale interpretare le perturbazioni dei moti degli altri pianeti non sarebbe stata possibile in questo schema di scienza basata sui dati.

Gli stessi dirigenti google dicono che loro sono bravi nel “nowcasting” (ovvero nella scoperta del presente) piuttosto che nel forecasting. Questo riprende un po’ il discorso fatto all’iniziativa su bigData e crimine.

Infine il relatore ci lascia con due tesi abbastanza articolate frutto di tutto questo ragionamento. Rimando alle slide allegate per queste e per tutte le cose che nel report sono esposte in modo approssimativo.

Wiener e i bigdata, libere interpretazioni di cocco

2) La tecnica si impone sul panorama e fa apparire le scelte come naturali
Questa argomentazione è un ristrettissimo dell’articolo di Winner
innovate.ucsb.edu/wp-content/uploads/20...
che leggetevelo perche è un classico.

Winner parla di tecnologia in 2 modi:
A) tecnologie che per alcuni dettagli implementativi giocano a favore di
un certo gruppo socio-politico in un determinato contesto storico
B) tecnologie che per esistere hanno bisogno di un determinato contesto
politico economico e che sono intrinsecamente politiche
Gli esempi cercateveli sull’articolo, tanto per dire le centrali
nucleari rientrano nel gruppo B perché hanno intrinsecamente necessità
di un territorio militarizzato.
Nell’idea di Winner qualsiasi tecnologia, dai ponti di Long Island alla
forma e dimensione dei pannelli solari, hanno delle proprietà che sono
scelte in fase di costruzione e progettazione e che poi danno forma alla
tecnologia nei confronti degli utilizzatori, quante volte abbiamo
sentito che un tale oggetto è ‘fabbricato’ in tale modo, e a quella
obiezione ci siamo rassegnati…
Questi oggetti che vengono designati in un certo modo invadono la realtà
che percepiamo e dopo un po si naturalizzano in esso, divenendo parte
del nostro immaginario, e cosa peggiore, spesso si radicano nei costumi
delle persone e restano ben oltre i termini della forza politica o
sociale che le ha installate.

Le peculiarita’ tecniche, e il loro impatto sociale, di una scienza fatta coi Big dATA

- Innanzitutto per fare una ricerca o una analisi di qualche tipo
bisogna possedere i dati, quindi deve esserci un ente che li raccoglie e
li gestisce e a richieste li vende o li distribuisce. Questo ente deve
essere onnipresente o quasi, o deve al massimo condividere il mercato
con altri pochi attori, altrimenti ci è impossibile raccogliere i dati,

quindi l’utilizzo dei big data nell ambito della ricerca accademica impone di relazionarsi economicamente con google e di
accettare/favorire che esista una struttura egemonica nel mondo di
internet?

qual’e’ l effetto delle aziende private di informatica sulla ricerca?

→ L accademia ha fondato e mantiene numerosi centri dati, a volte in modo centralizzato, a volte con dei privati, in generale sono accessibili, solo a volte(si potrebbe anche fare altrimenti, tipo un peering dei dati ma non mi
pare che sia diffuso rispetto all acquisto dei dati a google o agli
analytics in genere)

→ Economia della scienza, direzione degli investimenti e volume pubblicazioni
- Al fine di poter compiere queste ricerche bisogna investire (come
accademia) parimenti in infrastrutture e in formazione informatica.
Questa cosa nel nostro contesto impone la rinuncia di attenzioni e finanziamenti per altri ambiti di ricerca?
Entrambi i punti vanno ovviamente approfonditi e capiti meglio, però
rendono l’idea del perche il dettaglio della scienza o delle tecnologia
che si mette in campo impone delle scelte che sono tutte sue e che non
possono, o almeno è pressapochista farlo, essere trascurati.

I tornelli bolognesi:

L’introduzione dei tornelli alla biblioteca di Bologna è una misura
tecnica come un’altra per l’eliminazione del ‘degrado’, certo se ne
potevano scegliere delle altre, ad esempio mettere un tipo di guardia
per cacciare chi disturbava o separare i banchi o che ne so…
Non entro nel merito di come il problema del degrado sia piu grande e
che è un idea costruita dall’alto e dai media e che invece si tratta
solo di un modo di vivere uno spazio, non voglio neanche dire come
sarebbe bello se le persone all’interno della biblioteca fossero in
grado di autogestire il loro spazio cacciando dalla stanza chi disturba
etc… etc…
Voglio però sottolineare come la scelta dei tornelli non sia
indifferente e risponda a molte altre esigenze rispetto al solo bisogno
di silenzio nella biblioteca, innanzitutto i tornelli fanno entrare chi
a la tessera e lasciano fuori chi non ce l ha, che non vuol dire che sia
una persona silenziosa o rispettosa dei bisogni degli altri, solo che ha
pagato le tasse.
I tornelli costruiscono un confine, uno spazio chiuso e inaccessibile
per chi non è riconosciuto, predispongono all’idea che sia ok farsi
riconoscere e identificarsi accedendo ad un luogo pubblico e che solo
chi ha questo acceso lo merita
L’introduzione dei tornelli ha lo stesso valore di un nuovo algoritmo di
tasszione, è volto ad escludere alcune fasce di persone dall’università
o ancora peggio, dagli spazi di studio. Non credo che sia possibile fare
una classifica di gravità, dire quale sia peggio o per quale bisogna
manifestare il proprio dissenso o meno
(a meno che non sia un’obiezione politica ad infoaut che però non mi
sembra pertinente, anzi ho letto delle belle analisi a riguardo
-

On 04/26/2017 09:30 PM, Jacopo Niedda wrote:

Ciao belly,
alcuni spunti teorici sulle tematiche di MTG di quest’anno e non solo.
Scusate le banalizzazioni : sono solo in virtù della sintesi.
-In allegato ‘Weapons of Maths Destruction. How big data increases
inequality and theatens democracy’ di Cathy O’Neil, matematica e
analista statunitense.
-E. Morin. Intervista su interdisciplinarietà e condivisione dei saperi
www.bdp.it/content/index.php?action=rea...

-’L’uomo a una dimensione’ Marcuse. Interessante ai nostri fini
soprattutto il capitolo sul ‘pensiero a una dimensione’. Critica della
scienza moderna e della tecnologia come struemnto di dominio dell’uomo
sulla natura e sull’uomo.
- ‘La struttura delle rivoluzioni scientifiche’ T. Kuhn. Analisi
epistemologica dell’evoluzione del sapere scientifico: scienza normale
(procede in maniera cumulativa sulla base di paradigmi accettati dalla
comunità scientifica) vs rivoluzione scientifica (mutamento del
paradigma alla base di una teoria a seguito di un conflitto nella
comunità scientifica). La determinazione del vero scientifico è frutto
non solo della logica, ma anche della forza di persuasione dei promotori
del nuovo paradigma.