Complessità temporale

Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento da Tempo superpolinomiale)
Vai alla navigazione Vai alla ricerca
Grafici delle funzioni comunemente utilizzate nell'analisi degli algoritmi

In informatica, la complessità temporale di un algoritmo quantifica la quantità di tempo impiegata da un algoritmo a essere eseguito in funzione della lunghezza della stringa che rappresenta l'input[1]:226. La complessità temporale di un algoritmo è espressa comunemente usando la notazione O-grande, che esclude i coefficienti e i termini di ordine inferiore. Quando è espressa in questo modo, si dice che la complessità temporale è descritta asintoticamente, ossia, quando la dimensione degli input va a infinito. Ad esempio, se il tempo richiesto da un algoritmo su tutti gli input di dimensione n è al massimo 5n3 + 3n, la complessità temporale asintotica è O(n3).

La complessità temporale è stimata comunemente contando il numero di operazioni elementari eseguite dall'algoritmo, dove un'operazione elementare impiega una quantità di tempo fissa a essere eseguita. Così la quantità di tempo impiegata e il numero di operazioni elementari eseguite dall'algoritmo differiscono al massimo di un fattore costante.

Poiché il tempo di esecuzione di un algoritmo può variare con diversi input della stessa dimensione, si usa comunemente la complessità temporale del caso peggiore di un algoritmo, denotata come T(n), che è definita come la quantità di tempo massimo impiegata su qualsiasi input di dimensione n. Le complessità temporali sono classificate in base alla natura della funzione T(n). Ad esempio, un algoritmo con T(n) = O(n) è chiamato algoritmo in tempo lineare, e un algoritmo con T(n) = O(2n) si dice che è un algoritmo in tempo esponenziale.

Tabella di complessità temporali comuni[modifica | modifica wikitesto]

Lo stesso argomento in dettaglio: Complessità computazionale.

La tabella seguente sintetizza alcune classi di complessità temporali che si incontrano comunemente. Nella tabella, poly(x) = xO(1), cioè, polinomiale in x.

Nome Classe di complessità Tempo di esecuzione (T(n)) Esempi di tempi di esecuzione Algoritmi di esempio
tempo costante O(1) 10 Determinare se un intero (rappresentato in binario) è pari o dispari
tempo inverso di Ackermann O(α(n)) Tempo ammortizzato per un'operazione che usa un insieme disgiunto
tempo logaritmico iterato O(log* n) Colorazione distribuita di cicli
log-logaritmico O(log log n) Tempo ammortizzato per un'operazione che usa una coda di priorità vincolata[2]
tempo logaritmico DLOGTIME O(log n) log n, log(n2) ricerca binaria
tempo polilogaritmico poly(log n) (log n)2
potenza frazionaria O(nc) dove 0 < c < 1 n1/2, n2/3 Ricerca in un albero kd
tempo lineare O(n) n Trovare l'elemento più piccolo in un vettore non ordinato
tempo "n log asterisco n" O(n log* n) Algoritmo di triangolazione di un poligono di Seidel
tempo linearitmico O(n log n) n log n, log n! Il più veloce ordinamento comparativo
tempo quadratico O(n2) n2 Ordinamento a bolle; ordinamento a inserimento; convoluzione diretta
tempo cubico O(n3) n3 Moltiplicazione ingenua di due matrici n×n. Calcolare la correlazione parziale
tempo polinomiale P 2O(log n) = poly(n) n, n log n, n10 Algoritmo di Karmarkar per la programmazione lineare; algoritmo AKS
tempo quasi-polinomiale QP 2poly(log n) nlog log n, nlog n Il più noto algoritmo di approssimazione O(log2 n) per il problema dell'albero di Steiner diretto
tempo subesponenziale
(prima definizione)
SUBEXP O(2nε) per tutti gli ε > 0 O(2log nlog log n) Assumendo le congetture della teoria della complessità, BPP è contenuta in SUBEXP[3]
tempo subesponenziale
(seconda definizione)
2o(n) 2n1/3 Il più noto algoritmo per la scomposizione in fattori primi e per l'isomorfismo dei grafi
tempo esponenziale E 2O(n) 1,1n, 10n Risolvere il problema del commesso viaggiatore usando la programmazione dinamica
tempo fattoriale O(n!) n! Risolvere il problema del commesso viaggiatore attraverso il metodo forza bruta
tempo esponenziale EXPTIME 2poly(n) 2n, 2n2
tempo doppio esponenziale 2-EXPTIME 22poly(n) 22n Decidere la verità di un'affermazione data nell'aritmetica di Presburger

Tempo costante[modifica | modifica wikitesto]

Si dice che un algoritmo è in tempo costante (scritto anche come tempo O(1)) se il valore di T(n) è vincolato da un valore che non dipende dalla dimensione dell'input. Ad esempio, accedere a qualsiasi elemento singolo in un vettore richiede tempo costante in quanto deve essere eseguita solo un'operazione per localizzarlo. Tuttavia, trovare il valore minimale in un vettore non ordinato non è un'operazione in tempo costante, in quanto è necessaria una scansione su ciascun elemento del vettore al fine di determinare il valore minimale. Quindi è un'operazione in tempo lineare, che impiega il tempo O(n). Se il numero di elementi è conosciuto in anticipo e non cambia, tuttavia, si può ancora dire che tale algoritmo si esegue in tempo costante.

Malgrado il nome "tempo costante", il tempo di esecuzione non deve essere indipendente dalla dimensione del problema, ma deve essere posto un vincolo superiore per il tempo di esecuzione indipendentemente dalla dimensione del problema. Ad esempio, il compito "scambiare i valori di a e b se necessario affinché ab" è chiamato tempo costante anche se il tempo può dipendere se sia o no già vero che ab. Tuttavia, c'è una qualche costante t tale che il tempo richiesto sia sempre al massimo t.

Ecco alcuni frammenti di codice che si eseguono in tempo costante:

int indice = 5;
int elemento = lista[indice];
if (condizione vera) then
   svolgere qualche operazione che si esegue in tempo costante
other
   svolgere qualche altra operazione che si esegue in tempo costante
per i = 1 a 100
   per j = 1 a 200
      svolgere qualche operazione che si esegue in tempo costante

Se T(n) è O(qualsiasi valore costante), questo è equivalente a ed enunciato in notazione normale come T(n) essendo O(1).

Tempo logaritmico[modifica | modifica wikitesto]

Si dice che un algoritmo impiega tempo logaritmico se T(n) = O(log n). A causa dell'uso del sistema numerico binario da parte dei computer, il logaritmo è frequentemente a base 2 (cioè, log2 n, talvolta scritto lg n). Tuttavia, con il cambiamento della base per i logaritmi, loga n e logb n differiscono soltanto per un moltiplicatore costante, che nella notazione O grande è scartato; così O(log n) è la notazione standard per gli algoritmi in tempo logaritmico indipendentemente dalla base del logaritmo.

Gli algoritmi che impiegano tempo logaritmico si trovano comunemente nelle operazioni sugli alberi binari o quando si usa la ricerca binaria.

Un algoritmo O(log n) è considerato altamente efficiente, in quanto le operazioni da completare richieste per istanza diminuiscono con ogni istanza.

Un esempio molto semplice di questo tipo di f(n) è un algoritmo che taglia a metà una stringa. Impiegherà O(log n) (n essendo la lunghezza della stringa) dal momento che sminuzziamo la stringa a metà prima di ogni stampa (facciamo l'assunzione che console.log e str.substring si eseguano in tempo costante). Questo significa che, al fine di aumentare il numero di stampe, dobbiamo raddoppiare la lunghezza della stringa.

// Funzione per stampare ricorsivamente la metà destra di una stringa
var destra = function(str){
    var lunghezza = str.length;
    
    // Funzione di aiuto
    var aiuto = function(indice){
        
        // Caso Ricorsivo: Stampare la metà destra
        if(indice < lunghezza){
          
            // Stampa i caratteri dall'indice fino alla fine dell'array
            console.log(str.substring(indice, lunghezza));
            
            // Chiamata Ricorsiva: chiamare aiuto sulla metà destra
            aiuto(Math.ceil((lunghezza + indice)/2));
        }
        
        // Caso Base: Non fare niente
    }
    aiuto(0);
}

Tempo polilogaritmico[modifica | modifica wikitesto]

Si dice che un algoritmo è eseguito in tempo polilogaritmico se T(n) = O((log n)k), per una qualche costante k. Ad esempio, l'ordinamento di una catena di matrici può essere risolto in tempo polilogaritmico su una macchina ad accesso casuale parallelo.[4]

Tempo sublineare[modifica | modifica wikitesto]

Si dice che un algoritmo si esegue in tempo sublineare (spesso scritto tempo sub-lineare) se T(n) = o(n). In particolare questo include algoritmi con le complessità temporali definite sopra, nonché altri come l'algoritmo di ricerca di Grover O(n½).

Gli algoritmi tipici che sono esatti e tuttavia si eseguono in tempo sub-lineare usano l'elaborazione parallela (come fa il calcolo del determinante della matrice NC1), l'elaborazione non classica (come fa la ricerca di Grover), o alternativamente hanno assunzioni garantite sulla struttura degli input (come fanno la ricerca binaria in tempo logaritmico e molti algoritmi di manutenzione ad albero). Tuttavia, i linguaggi come l'insieme di tutte le stringhe che hanno 1-bit indicizzato dai primi bit log(n) possono dipendere da ogni bit dell'input ed essere però computabili in tempo sub-lineare.

Il termine specifico algoritmo in tempo sublineare è riservato solitamente ad algoritmi diversi da quelli di sopra in quanto sono eseguiti su modelli classici di macchine seriali e non sono consentite loro assunzioni anteriori sull'input.[5] Essi possono tuttavia essere randomizzati, e in verità devono esserlo per quasi tutti i compiti più banali.

Poiché tale algoritmo deve fornire una risposta senza leggere l'intero input, i particolari dipendono fortemente dall'accesso consentito all'input. Solitamente per un input che è rappresentato come una stringa binaria b1,...,bk si assume che l'algoritmo possa nel tempo O(1) richiedere e ottenere il valore di bi per qualsiasi i.

Gli algoritmi in tempo sub-lineare sono tipicamente randomizzati, e forniscono solo soluzioni approssimate. Infatti, si può facilmente dimostrare che la proprietà di una stringa binaria che ha solo zeri (e nessun uno) non è decidibile da un algoritmo in tempo sub-lineare (non approssimato). Gli algoritmi in tempo sub-lineare emergono naturalmente nelle indagini sul collaudo delle proprietà.

Tempo lineare[modifica | modifica wikitesto]

Si dice che un algoritmo impiega un tempo lineare, o tempo O(n), se la sua complessità temporale è O(n). Informalmente, questo significa che per dimensioni dell'input abbastanza grandi il tempo di esecuzione aumenta linearmente con la dimensione dell'input. Per esempio, una procedura che addiziona tutti gli elementi di una lista richiede un tempo proporzionale alla lunghezza della lista. Questa descrizione è lievemente inaccurata, poiché il tempo di esecuzione può deviare significativamente da una precisa proporzionalità, specialmente per piccoli valori di n.

Il tempo lineare è spesso visto come un attributo desiderabile per un algoritmo. Sono state investite molte ricerche nella creazione di algoritmi che esibiscono un tempo (quasi) lineare o migliore. Queste ricerche includono sia metodi software che hardware. Nel caso dell'hardware, alcuni algoritmi che, matematicamente parlando, non possono mai raggiungere un tempo lineare con modelli di computazione ordinari sono in grado di essere eseguiti in tempo lineare. Ci sono parecchie tecnologie hardware che sfruttano il parallelismo per ottenere questo. Un esempio è la memoria indirizzabile ai contenuti. Questo concetto di tempo lineare è usato negli algoritmi di accoppiamento delle stringhe come l'algoritmo di Boyer-Moore e l'algoritmo di Ukkonen.

Tempo linearitmico[modifica | modifica wikitesto]

Una funzione linearitmica (combinazione di lineare e logaritmica) è una funzione della forma n · log n (cioè un prodotto di un termine lineare e di uno logaritmico). Si dice che un algoritmo è eseguito in tempo linearitmico se T(n) = O(n log n). In confronto ad altre funzioni, una funzione linearitmica ω(n), o(n1+ε) per ogni ε > 0, e Θ(n · log n). Perciò, un termine linearitmico cresce più velocemente di un termine lineare ma più lentamente di un qualsiasi polinomio in n con esponente strettamente maggiore di 1.

In molti casi, il tempo di esecuzione n · log n è semplicemente il risultato di eseguire un'operazione Θ(log n) n volte. Ad esempio, l'ordinamento ad albero binario crea un albero binario inserendo ciascun elemento del vettore (array) di dimensione n uno alla volta. Poiché l'operazione di inserimento su un albero binario di ricerca bilanciato impiega il tempo O(log n), l'intero algoritmo impiega un tempo linearitmico.

Gli ordinamenti comparativi richiedono nel caso peggiore almeno un numero linearitmico di comparazioni perché log(n!) = Θ(n log n), in base all'approssimazione di Stirling. Essi derivano frequentemente anche dalla relazione di ricorrenza T(n) = 2 T(n/2) + O(n).

Alcuni famosi algoritmi eseguiti in tempo linearitmico comprendono:

Tempo quasi-lineare[modifica | modifica wikitesto]

Una generalizzazione del tempo linearitmico è il tempo quasi-lineare. Si dice che un algoritmo funziona in tempo quasi-lineare se T(n) = O(n logk n) per una qualsiasi costante k; il tempo linearitmico è il caso k = 1. Gli algoritmi in tempo quasi-lineare sono anche o(n1+ε) per ogni ε > 0, e funzionano più velocemente di un qualsiasi polinomio in n con esponente strettamente maggiore di 1.

Gli algoritmi che si eseguono in tempo in quasi-lineare, in aggiunta agli algoritmi linearitmici elencati sopra, includono:

Tempo subquadratico[modifica | modifica wikitesto]

Si dice che un algoritmo è in tempo subquadratico se T(n) = o(n2).

Per esempio, la maggior parte degli algoritmi di ordinamento ingenuo basati sui confronti sono quadratici (ad es. l'ordinamento a inserimento), ma si possono trovare algoritmi più avanzati che sono subquadratici (ad es. l'ordinamento di Shell). Nessun ordinamento multiuso è eseguito in tempo lineare, ma il cambiamento da quadratico a subquadratico è di grande importanza fiscale.

Tempo polinomiale[modifica | modifica wikitesto]

Si dice che un algoritmo è in tempo polinomiale se il suo tempo di esecuzione è limitato superiormente da un'espressione polinomiale nella dimensione dell'input per l'algoritmo, cioè, T(n) = O(nk) per una qualche costante k.[1][6] I problemi per i quali esiste un algoritmo deterministico in tempo polinomiale appartengono alla classe di complessità P, che è centrale nel campo della teoria della complessità computazionale. La tesi di Cobham afferma che il tempo polinomiale è un sinonimo per "trattabile", "fattibile", "efficiente" o "veloce".[7]

Alcuni esempi di algoritmi in tempo polinomiale:

  • L'algoritmo di ordinamento quicksort su n interi svolge al massimo operazioni per qualche costante A. Perciò si esegue nel tempo polinomiale ed è un algoritmo in tempo polinomiale.
  • Tutte le operazioni aritmetiche basilari (addizione, sottrazione, moltiplicazione, divisione e confronto) possono essere fatte in tempo polinomiale.
  • Gli accoppiamenti massimi nei grafi si possono trovare in tempo polinomiale.

Tempo fortemente e debolmente polinomiale[modifica | modifica wikitesto]

In alcuni contesti, specialmente nell'ottimizzazione, si differenzia tra algoritmi in tempo fortemente polinomiale e in tempo debolmente polinomiale. Questi due concetti sono rilevanti soltanto se gli input per gli algoritmi consistono di interi.

Il tempo fortemente polinomiale è definito nel modello aritmetico di computazione. In questo modello di computazione le operazioni aritmetiche basilari (addizione, sottrazione, moltiplicazione, divisione e confronto) impiegano un passo in tempo unitario per essere svolte, indipendentemente dalle dimensioni degli operandi. L'algoritmo si esegue in tempo fortemente polinomiale se[8]

  1. il numero di operazioni nel modello aritmetico di computazione è limitato da un polinomio nel numero di interi dell'istanza dell'input; e
  2. lo spazio usato dall'algoritmo è limitato da un polinomio nella dimensione dell'input.

Qualsiasi algoritmo con queste due proprietà può essere convertito in un algoritmo di tempo polinomiale sostituendo le operazioni aritmetiche mediante algoritmi idonei a svolgere le operazioni aritmetiche su una macchina di Turing. Se il secondo dei suddetti requisiti non è soddisfatto, allora questo non è più vero. Dato l'intero (che occupa uno spazio proporzionale a n), è possibile computare con n moltiplicazioni usando la quadratura ripetuta. Tuttavia, lo spazio usato per rappresentare è proporzionale a , e perciò esponenziale piuttosto che polinomiale nello spazio usato per rappresentare l'input. Quindi, non è possibile eseguire questa computazione in tempo polinomiale in una macchina di Turing, ma è possibile computarla polinomialmente mediante molte operazioni aritmetiche.

Per converso, ci sono algoritmi che si eseguono in un numero di passi della macchina di Turing limitato da un polinomio per quanto riguarda la lunghezza dell'input in codice binario, ma non impiegano un numero di operazioni aritmetiche limitato da un polinomio per quanto riguarda il numero dei numeri dell'input. L'algoritmo euclideo per calcolare il massimo comun divisore di due interi è un esempio. Dati due interi e il tempo di esecuzione dell'algoritmo è limitato da passi della macchina di Turing. Questo è polinomiale nella dimensione di una rappresentazione binaria di e in quanto la dimensione di tale rappresentazione è grosso modo . Allo stesso tempo, il numero di operazioni aritmetiche non può essere limitato dal numero di interi nell'input (che è costante in questo caso: ci sono sempre soltanto due interi nell'input). A causa di quest'ultima osservazione, l'algoritmo non funziona in tempo strettamente polinomiale. Il suo tempo di esecuzione reale dipende dalle ampiezze di e e non soltanto dal numero di interi nell'input.

Un algoritmo che si esegue in tempo polinomiale ma che non è fortemente polinomiale si dice che si esegue in tempo debolmente polinomiale.[9] Un esempio ben noto di un problema per il quale si conosce un algoritmo in tempo debolmente polinomiale, ma non si conosce se ammetta un algoritmo in tempo fortemente polinomiale, è la programmazione lineare. Il tempo debolmente polinomiale non dovrebbe essere confuso con il tempo pseudopolinomiale.

Classi di complessità[modifica | modifica wikitesto]

Lo stesso argomento in dettaglio: Classe di complessità.

Il concetto di tempo polinomiale conduce a varie classi di complessità nella teoria della complessità computazionale. Alcune classi importanti definite usando il tempo polinomiale sono le seguenti.

P è la più piccola classe di complessità temporale su una macchina deterministica che sia robusta in termini di cambiamenti dei modelli di macchina. (Ad esempio, un cambiamento da una macchina di Turing a nastro singolo a una macchina multinastro può condurre a un aumento di velocità quadratico, ma qualsiasi algoritmo che funziona in tempo polinomiale in base a un modello lo fa anche sull'altro.) Qualsiasi data macchina astratta avrà una classe di complessità corrispondente ai problemi che possono essere risolti in tempo polinomiale su quella macchina.

Tempo superpolinomiale[modifica | modifica wikitesto]

Si dice che un algoritmo impiega un tempo superpolinomiale se T(n) non è limitato superiormente da nessun polinomio. È il tempo ω(nc) per tutte le costanti c, dove n è il parametro dell'entrata, tipicamente il numero di bit nell'input.

Ad esempio, un algoritmo che viene eseguito per 2n passi su un input di dimensione n richiede un tempo superpolinomiale (più specificamente, un tempo esponenziale).

Un algoritmo che usa risorse esponenziali è chiaramente superpolinomiale, ma alcuni algoritmi sono solo molto debolmente superpolinomiali. Ad esempio, il test di primalità di Adleman-Pomerance-Rumely si esegue per un tempo nO(log log n) su entrate di n bit; questo cresce più velocemente di qualsiasi polinomio per n abbastanza grande, ma la dimensione dell'input deve diventare grande in modo poco realistico prima che un polinomio di piccolo grado non riesca più a dominarlo.

Un algoritmo che richiede un tempo superpolinomiale giace al di fuori della classe di complessità P. La tesi di Cobham postula che questi algoritmi siano poco pratici, e in molti casi lo sono. Poiché il problema di P contro NP è irrisolto, attualmente non si conosce nessun algoritmo per un problema NP-completo che funzioni in tempo polinomiale.

Tempo quasi-polinomiale[modifica | modifica wikitesto]

Gli algoritmi in tempo quasi-polinomiale sono algoritmi che si eseguono più lentamente del tempo polinomiale, tuttavia non così lentamente da essere in tempo esponenziale. Il tempo di esecuzione del caso peggiore di un algoritmo in tempo quasi-polinomiale è per una qualche c fissa. L'algoritmo classico più conosciuto per la fattorizzazione degli interi, il crivello dei campi di numeri generale, che si esegue nel tempo di circa non è quasi-polinomiale, dal momento che il tempo di esecuzione non può essere espresso come per una qualche c fissa. Se la costante c nella definizione degli algoritmi in tempo quasi-polinomiale è uguale a 1, otteniamo un algoritmo in tempo polinomiale, e se è minore di 1, otteniamo un algoritmo in tempo sub-lineare.

Gli algoritmi in tempo quasi-polinomiale tipicamente nascono nelle riduzioni da un problema NP-difficile a un altro problema. Ad esempio, si può prendere l'istanza di un problema NP difficile, diciamo 3SAT, e convertirlo in un'istanza di un altro problema B, ma la dimensione dell'istanza diventa . In quel caso, questa riduzione non prova che il problema B è NP-difficile; questa riduzione mostra soltanto che non c'è alcun algoritmo polinomiale per B a meno che non ci sia un algoritmo quasi-polinomiale per 3SAT (e così per tutti quelli di NP). Similmente, ci sono alcuni problemi per i quali conosciamo algoritmi in tempo quasi polinomiale, ma non si conosce un algoritmo in tempo polinomiale. Tali problemi sorgono negli algoritmi di approssimazione; un esempio famoso è il problema dell'albero di Steiner, per il quale c'è un algoritmo di approssimazione in tempo quasi polinomiale che raggiunge un fattore di approssimazione di (n essendo il numero dei vertici), ma dimostrare l'esistenza di tale algoritmo in tempo polinomiale è un problema aperto

La classe di complessità QP consiste di tutti i problemi che hanno algoritmi in tempo quasi-polinomiale. Può essere definita in termini di DTIME nel modo seguente.[10]

Relazione con i problemi NP-completi[modifica | modifica wikitesto]

Nella teoria della complessità, il problema irrisolto P contro NP chiede se tutti i problemi in NP hanno algoritmi in tempo polinomiale. Tutti gli algoritmi più noti per problemi NP-completi come 3SAT e altri, impiegano un tempo esponenziale. In effetti, si congettura per molti problemi naturali NP-completi che non abbiamo algoritmi in tempo subesponenziale. Qui si assume che "tempo subesponenziale" significhi la seconda definizione presentata sopra. (D'altro canto, molti problemi dei grafi rappresentati nel modo naturale mediante matrici di adiacenze sono risolvibili in tempo subesponenziale semplicemente perché la dimensione dell'input è il quadrato del numero dei vertici.) Questa congettura (per il problema k-SAT) è nota come l'ipotesi del tempo esponenziale.[11] Poiché si congettura che i problemi NP-completi non abbiano algoritmi in tempo quasi-polinomiale, alcuni risultati di inapprossimabilità nel campo degli algoritmi di approssimazione fanno l'assunzione che i problemi NP-completi non abbiano algoritmi in tempo quasi-polinomiale. Ad esempio, vedi i risultati di inapprossimabilità conosciuti per il problema di copertura degli insiemi.

Tempo subesponenziale[modifica | modifica wikitesto]

Il termine tempo subesponenziale si usa per esprimere che il tempo di esecuzione di un qualche algoritmo può crescere più velocemente di qualsiasi polinomio, ma è ancora significativamente più piccolo di un'esponenziale. In questo senso, i problemi che hanno algoritmi in tempo subesponenziale sono alquanto più trattabili di quelli che hanno soltanto algoritmi esponenziali. Sulla definizione precisa di "subesponenziale" generalmente non vi è accordo,[12] e noi elenchiamo le due più ampiamente usate sotto.

Prima definizione[modifica | modifica wikitesto]

Si dice che un problema è risolvibile in tempo subesponenziale se può essere risolto in tempi di esecuzione i cui logaritmi aumentano meno di qualsiasi polinomio dato. Più precisamente, un problema è in tempo subesponenziale se per ogni ε > 0 esiste un algoritmo che risolve il problema nel tempo O(2nε). L'insieme di tutti i problemi di questo tipo è la classe di complessità SUBEXP che può essere definita in termin di DTIME nel modo seguente.[3][13][14]

Si noti che questa nozione di subesponenziale è non uniforme in termini di ε, nel senso che ε non fa parte dell'input e ciascun ε può avere il proprio algoritmo per il problema.

Seconda definizione[modifica | modifica wikitesto]

Alcuni autori definiscono il tempo subesponenziale come tempi di esecuzione in 2O(n).[11][15][16] Questa definizione consente tempi di esecuzione maggiori della prima definizione di tempo subesponenziale. Un esempio di un tale algoritmo in tempo subesponenziale è l'algoritmo classico più noto per la fattorizzazione degli interi, il crivello dei campi di numeri generale, che funziona nel tempo di circa , dove la lunghezza dell'input è n. Un altro esempio è l'algoritmo più noto per il problema dell'isomorfismo dei grafi, che funziona nel tempo 2O(√(n log n)).

Si noti che fa differenza se all'algoritmo si permette di essere subesponenziale nella dimensione dell'istanza, del numero dei vertici o del numero degli spigoli. Nella complessità parametrizzata, questa differenza è resa esplicita considerando le coppie di problemi decisionali e parametri k. SUBEPT è la classe di tutti i problemi parametrizzati che si eseguono in tempo subesponenziale in k e polinomiale nella dimensione n:[17]

Più precisamente, SUBEPT è la classe di tutti i problemi parametrizzati per i quali vi è una funzione computabile con e un algoritmo che decide L nel tempo .

Ipotesi del tempo esponenziale[modifica | modifica wikitesto]

Lo stesso argomento in dettaglio: Ipotesi del tempo esponenziale.

L'ipotesi del tempo esponenziale o ITE (in inglese exponential time hypothesis, ETH) è che 3SAT, il problema di soddisfacibilità delle formule booleane in forma normale congiuntiva con al massimo tre letterali per clausola e con n variabili, non possa essere risolto nel tempo 2O(n). Più precisamente, l'ipotesi è che ci sia una qualche costante assoluta c > 0 tale che 3SAT non possa essere deciso nel tempo 2cn da nessuna macchina di Turing deterministica. Con m che denota il numero di clausole, ITE è equivalente all'ipotesi che kSAT non possa essere risolto nel tempo 2O(m) per qualsiasi intero k ≥ 3.[18] L'ipotesi del tempo esponenziale implica P ≠ NP.

Tempo esponenziale[modifica | modifica wikitesto]

Si dice che un algoritmo è in tempo esponenziale, se T(n) è limitato superiormente da 2poly(n), dove poly(n) è un qualche polinomio in n. Più formalmente, un algoritmo è in tempo esponenziale se T(n) è limitato da O(2nk) per una qualche costante k. I problemi che ammettono algoritmi in tempo esponenziale su una macchina di Turing deterministica formano la classe di complessità conosciuta come EXP.

Talvolta, il tempo esponenziale si usa per riferirsi ad algoritmi che hanno T(n) = 2O(n), dove l'esponente è al massimo una funzione lineare di n. Questo dà origine alla classe di complessità E.

Tempo doppio esponenziale[modifica | modifica wikitesto]

Si dice che un algoritmo è in tempo doppio esponenziale se T(n) è limitato superiormente da 22poly(n), dove poly(n) è un qualche polinomio in n. Tali algoritmi appartengono alla classe di complessità 2-EXPTIME.

Algoritmi ben noti in tempo doppio esponenziale includono:

Note[modifica | modifica wikitesto]

  1. ^ a b Michael Sipser, Introduction to the Theory of Computation, Course Technology Inc, 2006, ISBN 0-619-21764-2.
  2. ^ Kurt Mehlhorn e Stefan Naher, Bounded ordered dictionaries in O(log log N) time and O(n) space, in Information Processing Letters, vol. 35, n. 4, 1990, p. 183, DOI:10.1016/0020-0190(90)90022-P.
  3. ^ a b László Babai, Lance Fortnow, N. Nisan e Avi Wigderson, BPP has subexponential time simulations unless EXPTIME has publishable proofs, in Computational Complexity, vol. 3, n. 4, Berlino, New York, Springer-Verlag, 1993, pp. 307–318, DOI:10.1007/BF01275486.
  4. ^ Phillip G. Bradford, Gregory J. E. Rawlins e Gregory E. Shannon, Efficient Matrix Chain Ordering in Polylog Time, in SIAM Journal on Computing, vol. 27, n. 2, Filadelfia, Society for Industrial and Applied Mathematics, 1998, pp. 466–490, DOI:10.1137/S0097539794270698, ISSN 1095-7111 (WC · ACNP).
  5. ^ Ravi Kumar e Ronitt Rubinfeld, Sublinear time algorithms (PDF), in SIGACT News, vol. 34, n. 4, 2003, pp. 57–67.
  6. ^ Christos H. Papadimitriou, Computational complexity, Reading, Mass., Addison-Wesley, 1994, ISBN 0-201-53082-1.
  7. ^ Alan Cobham, The intrinsic computational difficulty of functions, in Proc. Logic, Methodology, and Philosophy of Science II, North Holland, 1965.
  8. ^ Martin Grötschel, László Lovász, Alexander Schrijver, Complexity, Oracles, and Numerical Computation, in Geometric Algorithms and Combinatorial Optimization, Springer, 1988, ISBN 0-387-13624-X.
  9. ^ Alexander Schrijver, Preliminaries on algorithms and Complexity, in Combinatorial Optimization: Polyhedra and Efficiency, vol. 1, Springer, 2003, ISBN 3-540-44389-4.
  10. ^ ComplexityZoo: "Class QP: Quasipolynomial-Time" Archiviato il 22 dicembre 2015 in Internet Archive.
  11. ^ a b R. Impagliazzo e R. Paturi, On the complexity of k-SAT, in Journal of Computer and System Sciences, vol. 62, n. 2, Elsevier, 2001, pp. 367–375, DOI:10.1006/jcss.2000.1727, ISSN 1090-2724 (WC · ACNP).
  12. ^ Aaronson, Scott, A not-quite-exponential dilemma, in Shtetl-Optimized, 5 aprile 2009. URL consultato il 2 dicembre 2009.
  13. ^ P. Moser, Baire's Categories on Small Complexity Classes, in Lecture Notes in Computer Science, Berlino, New York, Springer-Verlag, 2003, pp. 333–342, ISSN 0302-9743 (WC · ACNP).
  14. ^ P.B. Miltersen, DERANDOMIZING COMPLEXITY CLASSES, in Handbook of Randomized Computing, Kluwer Academic Pub, 2001, p. 843.
  15. ^ Greg Kuperberg, A Subexponential-Time Quantum Algorithm for the Dihedral Hidden Subgroup Problem, in SIAM Journal on Computing, vol. 35, n. 1, Filadelfia, Society for Industrial and Applied Mathematics, 2005, p. 188, ISSN 1095-7111 (WC · ACNP).
  16. ^ Oded Regev, A Subexponential Time Algorithm for the Dihedral Hidden Subgroup Problem with Polynomial Space, quant-ph, 2004, arXiv:quant-ph/0406151v1.
  17. ^ Jörg Flum e Martin Grohe, Parameterized Complexity Theory, Springer, 2006, p. 417, ISBN 978-3-540-29952-3. URL consultato il 5 marzo 2010 (archiviato dall'url originale il 18 novembre 2007).
  18. ^ R. Impagliazzo, R. Paturi e F. Zane, Which problems have strongly exponential complexity?, in Journal of Computer and System Sciences, vol. 63, n. 4, 2001, pp. 512–530, DOI:10.1006/jcss.2001.1774.

Voci correlate[modifica | modifica wikitesto]