Grover-Algorithmus

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Der Grover-Algorithmus ist ein Quantenalgorithmus zur Suche in einer unsortierten Datenbank mit N {\displaystyle N} {\displaystyle N} Einträgen in O ( N ) {\displaystyle {\mathcal {O}}\left({\sqrt {N}}\right)} {\displaystyle {\mathcal {O}}\left({\sqrt {N}}\right)} Schritten und mit O ( log N ) {\displaystyle {\mathcal {O}}\left(\log N\right)} {\displaystyle {\mathcal {O}}\left(\log N\right)} Speicherbedarf (siehe O-Notation). Er wurde von Lov Grover im Jahre 1996 veröffentlicht[1] und gehört zu den ersten Quantenalgorithmen, für die bewiesen wurde, dass sie mit der Problemgröße besser skalieren als der beste klassische Algorithmus. Im Fall des Grover-Algorithmus handelt es sich um einen quadratischen Speedup.

Auf einem klassischen Computer ist der prinzipiell schnellstmögliche Suchalgorithmus in einer unsortierten Datenbank die lineare Suche, die O ( N ) {\displaystyle {\mathcal {O}}\left(N\right)} {\displaystyle {\mathcal {O}}\left(N\right)} Rechenschritte erfordert. Der Grover-Algorithmus liefert damit eine quadratische Beschleunigung, was für große N {\displaystyle N} {\displaystyle N} beträchtlich ist.

Wie die meisten Quantenalgorithmen ist der Grover-Algorithmus ein probabilistischer Algorithmus, d. h., er gibt die korrekte Antwort mit hoher Wahrscheinlichkeit, wobei die Wahrscheinlichkeit einer fehlerhaften Antwort durch wiederholte Ausführung des Algorithmus verkleinert werden kann.

Der Grover-Algorithmus ermöglicht eigentlich nicht die direkte Suche in unsortierten Datenbanken, sondern die Umkehrung einer endlichen Funktion y = f ( x ) {\displaystyle y=f(x)} {\displaystyle y=f(x)}, denn zu einem gegebenen Wert y {\displaystyle y} {\displaystyle y} entspricht ein Wert x = f 1 ( y ) {\displaystyle x=f^{-1}(y)} {\displaystyle x=f^{-1}(y)} der Suche nach einem Wert x {\displaystyle x} {\displaystyle x} im Definitionsbereich von f {\displaystyle f} {\displaystyle f}.

Der Grover-Algorithmus kann ebenso zur Berechnung des Mittelwerts und des Medians einer Menge von Zahlen verwendet werden sowie zur Lösung des Kollisionsproblems. Weiter kann er zur Lösung NP-vollständiger Probleme eingesetzt werden, indem er die Menge aller möglichen Probleme durchläuft. Obwohl damit NP-vollständige Probleme beträchtlich schneller gelöst werden können, ermöglicht auch der Grover-Algorithmus keine Lösung in polynomialer Zeitkomplexität.

Detaillierter Ablauf

[Bearbeiten | Quelltext bearbeiten ]

Der folgende Ablauf des Algorithmus bezieht sich auf die Suche nach einem einzelnen Sucheintrag. Der Algorithmus kann weiter optimiert werden, um einen von mehreren möglichen Einträgen zu finden, wobei deren Anzahl im Vorfeld bekannt ist.

Voraussetzungen

[Bearbeiten | Quelltext bearbeiten ]

Gegeben sei eine unsortierte Datenbank mit N {\displaystyle N} {\displaystyle N} Einträgen, die in einem N {\displaystyle N} {\displaystyle N}-dimensionalen Zustandsraum H {\displaystyle {\mathcal {H}}} {\displaystyle {\mathcal {H}}} durch log 2 N {\displaystyle \log _{2}N} {\displaystyle \log _{2}N} Qubits dargestellt wird. Die Einträge seien mit 0 , 1 , , ( N 1 ) {\displaystyle 0,1,\dots ,(N-1)} {\displaystyle 0,1,\dots ,(N-1)} durchnummeriert. Dann wählen wir eine auf H {\displaystyle {\mathcal {H}}} {\displaystyle {\mathcal {H}}} wirkende Observable Ω {\displaystyle \Omega } {\displaystyle \Omega } mit N {\displaystyle N} {\displaystyle N} verschiedenen Eigenzuständen

{ | 0 , | 1 , , | N 1 } {\displaystyle \left\{\left\vert 0\right\rangle ,\left\vert 1\right\rangle ,\cdots ,\left\vert N-1\right\rangle \right\}} {\displaystyle \left\{\left\vert 0\right\rangle ,\left\vert 1\right\rangle ,\cdots ,\left\vert N-1\right\rangle \right\}}

(in der Bra-Ket-Notation) und den zugehörigen Eigenwerten

{ λ 0 , λ 1 , , λ N 1 } . {\displaystyle \left\{\lambda _{0},\lambda _{1},\cdots ,\lambda _{N-1}\right\}.} {\displaystyle \left\{\lambda _{0},\lambda _{1},\cdots ,\lambda _{N-1}\right\}.}

Ferner sei ein unitärer Operator U ω {\displaystyle U_{\omega }} {\displaystyle U_{\omega }} gegeben, der eine Subroutine, das sogenannte Orakel, darstellt, die die Datenbankeinträge effizient nach dem Suchkriterium vergleicht. Der Algorithmus legt nicht fest, wie das Orakel arbeitet, es muss allerdings die Superposition der Quantenzustände verarbeiten und den gesuchten Eigenzustand | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } erkennen:

U ω | ω = | ω {\displaystyle U_{\omega }\left\vert \omega \right\rangle =-\left\vert \omega \right\rangle } {\displaystyle U_{\omega }\left\vert \omega \right\rangle =-\left\vert \omega \right\rangle }
U ω | x = | x x ω {\displaystyle U_{\omega }\left\vert x\right\rangle =\left\vert x\right\rangle \qquad \forall x\neq \omega } {\displaystyle U_{\omega }\left\vert x\right\rangle =\left\vert x\right\rangle \qquad \forall x\neq \omega }

Ziel des Algorithmus ist es, diesen Eigenzustand | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle }, bzw. äquivalent den Eigenwert λ ω {\displaystyle \lambda _{\omega }} {\displaystyle \lambda _{\omega }} zu identifizieren.

Schrittabfolge

[Bearbeiten | Quelltext bearbeiten ]
  1. Initialisiere das System in den Zustand
    | s = 1 N x | x {\displaystyle \left\vert s\right\rangle ={\frac {1}{\sqrt {N}}}\sum _{x}\left\vert x\right\rangle } {\displaystyle \left\vert s\right\rangle ={\frac {1}{\sqrt {N}}}\sum _{x}\left\vert x\right\rangle }
  2. Führe die folgende sog. Grover-Iteration r ( N ) {\displaystyle r(N)} {\displaystyle r(N)}-mal durch. (Die Funktion r {\displaystyle r} {\displaystyle r} wird weiter unten beschrieben.)
    1. Wende den Operator U ω = I 2 | ω ω | {\displaystyle U_{\omega }=I-2\left\vert \omega \right\rangle \left\langle \omega \right\vert } {\displaystyle U_{\omega }=I-2\left\vert \omega \right\rangle \left\langle \omega \right\vert } an (erste Householdertransformation).
    2. Wende den Operator U s = ( I 2 | s s | ) {\displaystyle U_{s}=-(I-2\left\vert s\right\rangle \left\langle s\right\vert )} {\displaystyle U_{s}=-(I-2\left\vert s\right\rangle \left\langle s\right\vert )} an (zweite Householdertransformation).
  3. Führe die Messung von Ω {\displaystyle \Omega } {\displaystyle \Omega } durch. Das Messergebnis beträgt λ ω {\displaystyle \lambda _{\omega }} {\displaystyle \lambda _{\omega }} mit einer Wahrscheinlichkeit nahe 1 {\displaystyle 1} {\displaystyle 1}, falls N 1 {\displaystyle N\gg 1} {\displaystyle N\gg 1}. Mit der Messung von λ ω {\displaystyle \lambda _{\omega }} {\displaystyle \lambda _{\omega }} ist das System im Zustand ω {\displaystyle \omega } {\displaystyle \omega }.

Geometrische Sicht und Bestimmung der Schrittzahl r(N)

[Bearbeiten | Quelltext bearbeiten ]

Der Anfangszustand lautet

| s = 1 N x | x . {\displaystyle |s\rangle ={\frac {1}{\sqrt {N}}}\sum _{x}|x\rangle .} {\displaystyle |s\rangle ={\frac {1}{\sqrt {N}}}\sum _{x}|x\rangle .}

Betrachten wir die von | s {\displaystyle \left\vert s\right\rangle } {\displaystyle \left\vert s\right\rangle } und | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } aufgespannte Ebene. Sei | ω × {\displaystyle \vert \omega ^{\times }\rangle } {\displaystyle \vert \omega ^{\times }\rangle } ein Ket-Vektor in dieser Ebene, senkrecht zu | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle }. Da | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } einer der Basisvektoren ist, folgt

ω s = 1 N {\displaystyle \langle \omega \mid s\rangle ={\frac {1}{\sqrt {N}}}} {\displaystyle \langle \omega \mid s\rangle ={\frac {1}{\sqrt {N}}}}

Geometrisch bedeutet das, dass | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } und | s {\displaystyle \left\vert s\right\rangle } {\displaystyle \left\vert s\right\rangle } in einem Winkel von π 2 θ {\displaystyle {\tfrac {\pi }{2}}-\theta } {\displaystyle {\tfrac {\pi }{2}}-\theta } zueinander stehen, wobei θ = θ ( N ) {\displaystyle \theta =\theta (N)} {\displaystyle \theta =\theta (N)} gegeben ist durch

cos ( π 2 θ ) = 1 N {\displaystyle \cos \left({\frac {\pi }{2}}-\theta \right)={\frac {1}{\sqrt {N}}}} {\displaystyle \cos \left({\frac {\pi }{2}}-\theta \right)={\frac {1}{\sqrt {N}}}}

folglich ist

sin θ = 1 N {\displaystyle \sin \theta ={\frac {1}{\sqrt {N}}}} {\displaystyle \sin \theta ={\frac {1}{\sqrt {N}}}}

Der Operator U ω {\displaystyle U_{\omega }} {\displaystyle U_{\omega }} ist eine Spiegelung an der zu | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } orthogonalen Hyperebene; für Vektoren in der von | s {\displaystyle \left\vert s\right\rangle } {\displaystyle \left\vert s\right\rangle } und | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } aufgespannten Ebene wirkt er als Spiegelung an der Geraden durch | ω × {\displaystyle \vert \omega ^{\times }\rangle } {\displaystyle \vert \omega ^{\times }\rangle }. Der Operator U s {\displaystyle U_{s}} {\displaystyle U_{s}} ist eine Spiegelung an der Geraden durch | s {\displaystyle \left\vert s\right\rangle } {\displaystyle \left\vert s\right\rangle }. Der Zustandsvektor bleibt also nach der Anwendung von U s {\displaystyle U_{s}} {\displaystyle U_{s}} und U ω {\displaystyle U_{\omega }} {\displaystyle U_{\omega }} in der durch | s {\displaystyle \left\vert s\right\rangle } {\displaystyle \left\vert s\right\rangle } und | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } aufgespannten Ebene. Damit rotiert der Operator U s   U ω {\displaystyle U_{s}\ U_{\omega }} {\displaystyle U_{s}\ U_{\omega }} bei jedem Schritt der Grover-Iteration den Zustandsvektor um einen Winkel von 2 θ {\displaystyle 2\theta } {\displaystyle 2\theta } nach | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle }.

Der Algorithmus muss also anhalten, sobald der Zustandsvektor | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } am nächsten gekommen ist. Weitere Iterationen würden ihn wieder davon weg drehen und damit die Wahrscheinlichkeit der korrekten Antwort wieder verkleinern. Für die optimale Anzahl r {\displaystyle r} {\displaystyle r} an Iterationen zur exakten Übereinstimmung mit | ω {\displaystyle \left\vert \omega \right\rangle } {\displaystyle \left\vert \omega \right\rangle } gilt

π 2 θ = 2 θ r , {\displaystyle {\frac {\pi }{2}}-\theta =2\theta r,} {\displaystyle {\frac {\pi }{2}}-\theta =2\theta r,}

also

r ( N ) = π 4 θ ( N ) 1 2 {\displaystyle r(N)={\frac {\pi }{4\theta (N)}}-{\frac {1}{2}}} {\displaystyle r(N)={\frac {\pi }{4\theta (N)}}-{\frac {1}{2}}}

Da r {\displaystyle r} {\displaystyle r} aber eine ganze Zahl sein muss, setzen wir r {\displaystyle r} {\displaystyle r} gleich der gerundeten Zahl π 4 θ 1 2 {\displaystyle {\tfrac {\pi }{4\theta }}-{\tfrac {1}{2}}} {\displaystyle {\tfrac {\pi }{4\theta }}-{\tfrac {1}{2}}}. Damit beträgt die Wahrscheinlichkeit, eine falsche Antwort zu messen, O ( 1 cos 2 θ ) = O ( sin 2 θ ) {\displaystyle {\mathcal {O}}\left(1-\cos ^{2}\theta \right)={\mathcal {O}}\left(\sin ^{2}\theta \right)} {\displaystyle {\mathcal {O}}\left(1-\cos ^{2}\theta \right)={\mathcal {O}}\left(\sin ^{2}\theta \right)}. Die Irrtumswahrscheinlichkeit bei N {\displaystyle N} {\displaystyle N} Datenbankeinträgen lautet also asymptotisch O ( 1 N ) {\displaystyle {\mathcal {O}}\left({\tfrac {1}{N}}\right)} {\displaystyle {\mathcal {O}}\left({\tfrac {1}{N}}\right)}, d. h., sie ist vernachlässigbar klein für große N {\displaystyle N} {\displaystyle N}.

Für N 1 {\displaystyle N\gg 1} {\displaystyle N\gg 1} gilt θ N 1 2 {\displaystyle \theta \approx N^{-{\frac {1}{2}}}} {\displaystyle \theta \approx N^{-{\frac {1}{2}}}}, also

r ( N ) π N 4 {\displaystyle r(N)\longrightarrow {\frac {\pi {\sqrt {N}}}{4}}} {\displaystyle r(N)\longrightarrow {\frac {\pi {\sqrt {N}}}{4}}}

Enthält die Datenbank nicht nur einen, sondern k {\displaystyle k} {\displaystyle k} gesuchte Einträge, so funktioniert der Algorithmus ebenfalls, allerdings gilt für die Anzahl r {\displaystyle r} {\displaystyle r} durchzuführender Iterationen nun π 4 N k {\displaystyle {\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{k}}}} {\displaystyle {\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{k}}}} statt π 4 N {\displaystyle {\tfrac {\pi }{4}}{\sqrt {N}}} {\displaystyle {\tfrac {\pi }{4}}{\sqrt {N}}}. Ist k {\displaystyle k} {\displaystyle k} unbekannt, so führt man den Grover-Algorithmus in

π 4 N 1 , π 4 N 2 , π 4 N 4 , π 4 N 8 , {\displaystyle {\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{1}}},\;{\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{2}}},\;{\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{4}}},\;{\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{8}}},\ldots } {\displaystyle {\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{1}}},\;{\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{2}}},\;{\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{4}}},\;{\tfrac {\pi }{4}}{\sqrt {\tfrac {N}{8}}},\ldots }

Iterationen durch. Für beliebiges k {\displaystyle k} {\displaystyle k} wird ein gesuchter Eintrag mit genügend hoher Wahrscheinlichkeit gefunden. Die Gesamtzahl von Iterationen beträgt höchstens

π N 4 ( 1 + 1 2 + 1 2 + ) = O ( N ) {\displaystyle \pi {\frac {\sqrt {N}}{4}}\left(1+{\frac {1}{\sqrt {2}}}+{\frac {1}{2}}+\cdots \right)={\mathcal {O}}\left({\sqrt {N}}\right)} {\displaystyle \pi {\frac {\sqrt {N}}{4}}\left(1+{\frac {1}{\sqrt {2}}}+{\frac {1}{2}}+\cdots \right)={\mathcal {O}}\left({\sqrt {N}}\right)}

Optimalität des Grover-Algorithmus

[Bearbeiten | Quelltext bearbeiten ]

Der Grover-Algorithmus ist optimal in dem Sinne, dass es keinen Quantenalgorithmus mit weniger als O ( N ) {\displaystyle {\mathcal {O}}\left({\sqrt {N}}\right)} {\displaystyle {\mathcal {O}}\left({\sqrt {N}}\right)} Rechenschritten geben kann.[2] Dieses Resultat ist wichtig, um die Grenzen des Quantenrechnens zu verstehen. Wäre das Suchproblem beispielsweise mit O ( log c N ) {\displaystyle {\mathcal {O}}\left(\log ^{c}N\right)} {\displaystyle {\mathcal {O}}\left(\log ^{c}N\right)} Schritten lösbar, so wäre NP in BQP enthalten.

Ebenso ist die Anzahl i. A. notwendiger Iterationen für k {\displaystyle k} {\displaystyle k} gesuchte Einträge, also π N 2 k {\displaystyle \pi {\sqrt {\tfrac {N}{2k}}}} {\displaystyle \pi {\sqrt {\tfrac {N}{2k}}}}, optimal.

Qualitatives Argument

[Bearbeiten | Quelltext bearbeiten ]

Um ein heuristisches Verständnis des quantenmechanischen Verfahrens im Vergleich zum klassischen Vorgehen zu gewinnen, und für Verallgemeinerungen, ist es sinnvoll den folgenden Spezialfall zu betrachten: die gesuchte Information soll auf einem spezifischen Gitterpunkt eines Quadratgitters liegen. Die Suche erfordert also klassisch im schlimmsten Fall N {\displaystyle N} {\displaystyle N} Schritte, wenn N {\displaystyle {\sqrt {N}}} {\displaystyle {\sqrt {N}}} die Kantenlänge des Quadrates ist. Quantenmechanische Zustände sind dagegen Strahlen im Hilbertraum, d. h., sie sind nur bis auf einen Faktor bestimmt, und wenn man vom Zentrum des Quadrates ausgeht, ist die Richtung θ {\displaystyle \theta } {\displaystyle \theta } des Strahls durch eine Punktmenge gegeben, welche nur dem Umfang und nicht dem Inhalt des Quadrates entspricht, also einer Menge O ( N ) {\displaystyle \sim {\mathcal {O}}\!\left({\sqrt {N}}\right)} {\displaystyle \sim {\mathcal {O}}\!\left({\sqrt {N}}\right)}. Um einen speziellen Punkt auf dem gewählten Strahl zu finden, muss man nur noch Interferenzexperimente mit anderen quantenmechanischen Zuständen durchführen, was praktisch ohne zusätzlichen Zeitaufwand möglich ist. Die gesuchte Information erhält man also quantenmechanisch in O ( N ) {\displaystyle {\mathcal {O}}\!\left({\sqrt {N}}\right)} {\displaystyle {\mathcal {O}}\!\left({\sqrt {N}}\right)} Schritten.

Verwandte Themen

[Bearbeiten | Quelltext bearbeiten ]

Ein ganz anderes Problem, bei dem Quantencomputer ebenfalls eine wesentliche Beschleunigung bringen, betrifft die Faktorisierung einer sehr großen Zahl (siehe Shor-Algorithmus).

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten ]
  1. L. K. Grover: A fast quantum mechanical algorithm for database search. In: Proceedings, 28th Annual ACM Symposium on the Theory of Computing (STOC). Mai 1996, S. 212–219, arxiv:quant-ph/9605043. 
  2. C. H. Bennett, G. Brassard, Vazirani U.: The strengths and weaknesses of quantum computation. In: SIAM Journal on Computing. Band 26, Nr. 5, 1997, S. 1510–1523, doi:10.1137/s0097539796300933 . 
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Grover-Algorithmus&oldid=250301720"