next up previous contents
Next: 2.3 Erweiterung auf Heterostrukturen Up: 2. Schrödinger-Poisson-Solver Previous: 2.1 Schrödinger-Gleichung

Unterabschnitte


2.2 MOS-Transistor

Abbildung 2.3: Symbolbild einer MOS-Struktur und Festlegung der Lage der Koordinatenachsen.
\includegraphics[]{Schroedinger/MOS-fin.eps}

Die bisherigen Ableitungen wenden wir nun auf den Fall eines MOS-Transistors an. Abbildung 2.3 zeigt eine schematische Skizze einer solchen Struktur und die Lage des gewählten Koordinatensystems. Für die hier vorgesehene Untersuchung ist lediglich das zwischen Drain und Source gelegene Gebiet unter dem Gate von Interesse. Durch Oxidation wird eine dünne Oxidschicht direkt auf dem Siliziumsubstrat erzeugt und somit eine Isolierung zwischen dem Kanal und dem zur Ladungssteuerung verwendeten Gatekontakt hergestellt. Über die Gatespannung kann dann unter der Oxidschicht durch das resultierende Feld die Ladungsträgerdichte verändert, und so der Strom vom Source- zum Drain-Kontakt beeinflusst werden ([31]). Meist wird die Oxidschicht nicht direkt mit dem Metall kontaktiert, sondern eine zusätzliche, hochdotierte Polysiliziumschicht als Gate verwendet. Für den Transport der Ladungsträger von Source zu Drain wird die Quantisierung quer zum Kanal betrachtet und diese Richtung als z-Koordinate festgelegt. In den beiden verbleibenden Raumrichtungen wird das Elektron als frei beweglich angesehen, man spricht in diesem Fall von einem zweidimensionalen Elektronengas.

2.2.1 Talsorten

Abbildung 2.4: Isoenergieflächen der Elektronen in den sechs Valenzbändern in Silizium und deren Projektion
\includegraphics[]{Theorie/AnisotropieBW}

Die Annahme einer isotropen Masse in (2.2) diente nur zur einfachen Beschreibung der Nichtparabolizität. Bei den derzeit üblichen Herstellungsverfahren verwendet man hauptsächlich Siliziumkristalle mit $ \left< 100 \right>$ Oberflächen. Bei Silizium liegen die Leitungsbandminima in den X-Tälern symmetrisch zu den Achsen, die durch den $ \Gamma$ und die sechs $ X$ Punkte der Brillouin-Zone aufgespannt werden. Die Flächen konstanter Energie sind Ellipsoide, die durch zwei unterschiedliche Massen, die longitudinale Masse $ {\ensuremath{m_{l}}}$ und die transversale Masse $ {\ensuremath{m_{t}}}$, bestimmt sind.

$\displaystyle {} {\ensuremath{{\cal E}}} = \frac{\hbar^2}{2} \left( \frac{{k}_l^2}{{\ensuremath{m_{l}}}} + \frac{{k}_t^2}{{\ensuremath{m_{t}}}} \right)$ (2.33)

Abbildung 2.4 skizziert diese sechs Ellipsoide entlang der Hauptachsen des Wellenvektorraums. In der Folge werden wir die Quantisierung nur in der Normalrichtung zur Grenzfläche zwischen Oxid und Halbleiter betrachten. Aus der Projektion der Ellipsoide auf diese Oberfläche erkennt man bereits die später verwendete Unterteilung in einzelne Talsorten.

Tabelle 2.2: Aufstellung der effektiven Massen in den einzelnen Talsorten.
  $ m_x$ $ m_y$ $ m_z$ Entartung
Talsorte 1 $ m_{t}$ $ m_{t}$ $ m_{l}$ 2
Talsorte 2 $ m_{t}$ $ m_{l}$ $ m_{t}$ 2
Talsorte 3 $ m_{l}$ $ m_{t}$ $ m_{t}$ 2


In Tabelle 2.2 sind die in den verschiedenen Talsorten verwendeten Massen angegeben. In Hinblick auf die zu verwendende Quantisierungsmasse $ {\ensuremath{m_{z}}}$ sind die vier äußeren Ellipsoide, hier als Talsorte 2 und 3 angeführt, als äquivalent anzusehen. Die beiden auf einen Kreis projizierten Ellipsoide werden zur Talsorte 1 zusammengefasst. Um alle Leitungsbandminima bei der Behandlung der Quantisierung zu berücksichtigen, werden nur zwei verschiedene Talsorten behandelt, diese aber mit einem Entartungsfaktor $ {\ensuremath{g_{v}}}$ gewichtet, der die Anzahl der zur Talsorte $ v$ zusammengefassten Täler angibt.

2.2.2 Subbandparameter für den MOS-Transistor

Im hier vorliegenden Fall örtlich konstanter Massen und Nichtparabolizitätskoeffizienten können die Operatoren $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}_0$ bis $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}_2$ explizit angegeben werden.

Tabelle 2.3: Zusammenfassung der Eigenwerte der voneinander abhängigen Operatoren im Falle des MOS-Transistors.
Operator Eigenwert
$ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}$ $ {\ensuremath{{E}}}_{n }^{(0)}$
$ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}^{{\ensuremath{\alpha}}}$ $ {\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)}$
$ {\ensuremath{{\ensuremath{\mathsf{G}}}}}$ $ \Gamma_{n} =
{\ensuremath{{E}}}_{n }^{(0)} + \frac{\hbar^2}{2 {\ensuremath{m_{xy}}}} {K}^2$
$ {\ensuremath{{\ensuremath{\mathsf{G}}}}}^{{\ensuremath{\alpha}}}$ $ \Gamma_{n}^{{\ensuremath{\alpha}}}={\ensuremath{\alpha}}\Gamma_{n} $
$ {\ensuremath{{\ensuremath{\mathsf{T}}}}}$ $ {\ensuremath{\alpha}}^{-1}  f(\Gamma_{n}^{{\ensuremath{\alpha}}} )$


Die in Tabelle 2.3 angegebenen Operatoren haben für eine konstante Masse $ {\ensuremath{m_{xy}}}$ und einen konstanten Nichtparabolizitätskoeffizienten $ {\ensuremath{\alpha}}$ dieselben Eigenfunktionen, da sie jeweils in Form einer Potenzreihe mit einem der anderen Operatoren dargestellt werden können. Der Zusammenhang zwischen den Operatoren $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}$ und $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}$ ist für den Separationsansatz (2.4) in (2.7) angegeben. Analog zur Transformation (2.14) wurde der Oparator  $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}^{{\ensuremath{\alpha}}}$ definiert. Die Spektraldarstellung des Operators $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}^{{\ensuremath{\alpha}}}$ lautet nach (2.20):

$\displaystyle {\ensuremath{{\ensuremath{\mathsf{T}}}}}^{{\ensuremath{\alpha}}} = \sum_n f(\Gamma_{n}^{{\ensuremath{\alpha}}}) {\ensuremath{\mathsf{P}}}_n$    

Die darin vorkommenden Eigenwerte werden in eine Potenzreihe nach $ {K}^2$ entwickelt und Terme bis zur Ordnung vier berücksichtigt. Der Eigenwert des Operators $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}^{{\ensuremath{\alpha}}}$ lautet

$\displaystyle \Gamma_{n}^{{\ensuremath{\alpha}}} = {\ensuremath{\alpha}} {\ens...
...(0)} + \frac{{\ensuremath{\alpha}} \hbar^2}{2 {\ensuremath{m_{xy}}}}   {K}^2$ (2.34)

und wir erhalten somit die Entwicklung

$\displaystyle f(\Gamma_{n}^{{\ensuremath{\alpha}}}) \approx f({\ensuremath{\alp...
...c{{\ensuremath{\alpha}} \hbar^2}{2 {\ensuremath{m_{xy}}}} \right)^2  {K}^4 .$    

Die Ableitungen der Funktion (2.17) ergeben sich dabei zu

$\displaystyle f({\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)})$ $\displaystyle =$ $\displaystyle \frac{2 {\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)}}{1+ \sqrt{1+4   {\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)}}}.$  
$\displaystyle f'({\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)})$ $\displaystyle =$ $\displaystyle \frac{1}{\sqrt{1+4 {\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)}}}$  
$\displaystyle f''({\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)})$ $\displaystyle =$ $\displaystyle -\frac{1}{2} \left(1+4 {\ensuremath{\alpha}} {\ensuremath{{E}}}_{n }^{(0)}\right)^{-3/2}$  

Unter Verwendung der Abkürzung

$\displaystyle \beta = \left( 1 + 4 {\ensuremath{\alpha}}{\ensuremath{{E}}}_{n }^{(0)} \right)^{1/2}$ (2.35)

ergibt sich schließlich folgende Spektraldarstellung des Operators der kinetischen Energie.

$\displaystyle {} {\ensuremath{\mathsf{{\ensuremath{{\ensuremath{\mathsf{T}}}}}}...
... {\ensuremath{m_{xy}}} \beta^3} {K}^4 \right\}   {\ensuremath{\mathsf{P}}}_n$ (2.36)

Mit dem Operator

$\displaystyle {\ensuremath{\mathsf{B}}} = \left( {\ensuremath{\mathsf{1}}} + 4 ...
...nsuremath{\mathsf{G}}}}}_{0}}}}  {\ensuremath{\mathsf{a}}}^{1/2} \right)^{1/2}$ (2.37)

ergeben sich dann die in (2.22) verwendeten Operatoren wie folgt.
$\displaystyle {}
{\ensuremath{\mathsf{T_0}}}$ $\displaystyle =$ $\displaystyle \frac{2 {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}}{1+{\ensuremath{\mathsf{B}}}}$  
$\displaystyle {\ensuremath{\mathsf{T_1}}}$ $\displaystyle =$ $\displaystyle \frac{{\ensuremath{{\ensuremath{\mathsf{G}}}}}_{1}}{{\ensuremath{\mathsf{B}}}}$  
$\displaystyle {\ensuremath{\mathsf{T_2}}}$ $\displaystyle =$ $\displaystyle - \frac{{\ensuremath{\mathsf{a}}}\left. {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{1}\right.^2}{{\ensuremath{\mathsf{B}}}^3}$ (2.38)

Betrachten wir noch den Spezialfall eines verschwindenden Nichtparabolizitätskoeffizienten im nicht quantisierten Fall, so ergibt sich

$\displaystyle {\ensuremath{\mathsf{T_0}}} = {\ensuremath{\mathsf{G_0}}} \quad {...
...suremath{{\ensuremath{\mathsf{G}}}}}_{1} \quad {\ensuremath{\mathsf{T_2}}} = 0.$ (2.39)

In allen Subbändern ergibt sich dann als Subbandmasse $ m_{n}^{sbb}$ die effektive Elektronenmasse.

2.2.3 Schrödinger-Gleichung in Matrixform

Für die Lösung der eindimensionalen Schrödinger-Gleichung

$\displaystyle {} \left[ {\ensuremath{{\ensuremath{\mathsf{T}}}}}+ {\ensuremath{...
...ensuremath{\zeta}}_n\left({\ensuremath{{\ensuremath{\vec{\mathtt{r}}}}}}\right)$ (2.40)

in einem Simulator benötigen wir die in (2.40) verwendeten Operatoren $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}_0$, $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}_1$, $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}_2$, $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}$, $ {\ensuremath{\mathsf{B}}}$, $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{1}$ in einer Matrizendarstellung in der gewählten Basis $ u$. Aus der für das Basissystem gültigen Vollständigkeitsrelation (2.19) ergibt sich die Darstellung des gesuchten Zustandsvektors $ {\ensuremath{\zeta}}$ in dieser Basis.
$\displaystyle {}
{\vert {\ensuremath{\zeta}}_n \rangle}$ $\displaystyle =$ $\displaystyle {\ensuremath{\mathsf{1}}} {\vert {\ensuremath{\zeta}}_n \rangle}$  
  $\displaystyle =$ $\displaystyle \sum_l a_{n l} {\vert u_l \rangle}$  
$\displaystyle a_{n l}$ $\displaystyle =$ $\displaystyle {\langle u_l \vert {\ensuremath{\zeta}}_n \rangle}$ (2.41)

Die Matrixdarstellung des Operators der potenziellen Energie lautet:

$\displaystyle {} {\ensuremath{{\ensuremath{\mathsf{V}}}}}= \sum_{m,l} V_{m,l} \...
...{\langle u_m \vert} {\ensuremath{{\ensuremath{\mathsf{V}}}}}{\vert u_l \rangle}$ (2.42)

Produkte von Operatoren können als Produkt dieser Matrizen angeschrieben werden. Als Beispiel sei hier das Matrixelement des Operators $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}^{{\ensuremath{\alpha}}}$ angegeben.

$\displaystyle \left( {\ensuremath{{\ensuremath{\mathsf{G}}}}}^{{\ensuremath{\alpha}}} \right)_{m,n}$ $\displaystyle =$ $\displaystyle {\langle u_m \vert {\ensuremath{\mathsf{a}}}^{1/2} {\ensuremath{\...
...ensuremath{\mathsf{G}}}}}}}} {\ensuremath{\mathsf{a}}}^{1/2} \vert u_n \rangle}$ (2.43)
  $\displaystyle =$ $\displaystyle \sum_{j,k}
{\langle u_m \vert} {\ensuremath{\mathsf{a}}}^{1/2} {\...
...gle}  
{\langle u_k \vert} {\ensuremath{\mathsf{a}}}^{1/2} {\vert u_n \rangle}$ (2.44)
  $\displaystyle =$ $\displaystyle \left( {\ensuremath{\mathsf{a}}}^{1/2}\right)_{m,j}
\left( {\ensu...
...\mathsf{G}}}}}\right)_{j,k}
\left( {\ensuremath{\mathsf{a}}}^{1/2}\right)_{k,n}$ (2.45)

Eine Sonderstellung nimmt der Operator

$\displaystyle {\ensuremath{\mathsf{{\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}...
...athsf{k}}}_z   {\ensuremath{\mathsf{m}}}_z^{-1}   {\ensuremath{\mathsf{k}}}_z$ (2.46)

ein. In diesem kommt der Operator $ {\ensuremath{\mathsf{k_z}}}$ vor. Bei der gewählten Basis, in der Sinusfunktionen verwendet werden, ergibt sich aus der Anwendung des Operators $ {\ensuremath{\mathsf{k_z}}}$ das Matrixelement des Operators $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}$ wie folgt.

$\displaystyle {} \left( {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}\right)_{m,...
... {\langle v_m \vert}  {\ensuremath{\mathsf{m}}}_z^{-1}   {\vert v_n \rangle}.$ (2.47)

Für die Berechnung dieser Matrixelemente sind die Basisfunktionen $ u$ nicht ausreichend. Die Anwendung des Operators $ {\ensuremath{\mathsf{k}}}_z$ auf die Basisfunktionen $ u$ führt in eine neue Basis bestehend aus Kosinusfunktionen. Durch zweimalige Anwendung des Operators $ {\ensuremath{\mathsf{k}}}_z$ gelangt man jedoch wieder in die ursprüngliche Basis. Verwendet man also die neuen Funktionen

$\displaystyle v_n = \sqrt{\frac{2}{L_z}}   \cos \left(l \frac{\pi}{{\ensuremath{L_z}}} z\right)$ (2.48)

für die Berechnung der Matrixelemente des Operators $ {\ensuremath{\mathsf{{\ensuremath{m_{z}}}}}}^{-1}$ und berücksichtigt die Vorfaktoren die sich aus der Ableitung der Basisfunktionen $ u$ ergeben, wie in (2.49) angegeben, können auch die Matrixelemente von $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}$ in der Basis $ u$ angegeben werden.

Bei der Darstellung des Operators $ {\ensuremath{\mathsf{B}}}$ ist eine Operatorfunktion

$\displaystyle {\ensuremath{\mathsf{B}}} = \left( {\ensuremath{\mathsf{1}}} + {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}^{{\ensuremath{\alpha}}} \right)^{1/2}$ (2.49)

auszuwerten. Dies erfolgt in der Matrixdarstellung von $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}^{{\ensuremath{\alpha}}}$ durch Transformation der in der Diagonale vorkommenden Eigenwerte.

Die Darstellung der Schrödinger-Gleichung (2.42) in Matrixdarstellung lautet somit:

$\displaystyle {} \sum_{m,l} \left( T_l \delta_{m,l} + V_{m,l} - {\ensuremath{{E}}}_n \delta_{m,l} \right) a_{n,l} = 0.$ (2.50)

Die Summation in (2.52) erstreckt sich über den unendlich-dimensionalen Hilbert-Raum. Mit einem numerischen Verfahren wird eine Näherungslösung in einem endlich dimensionalen Unterraum gesucht. In der auf eine Anzahl von $ M$ Funktionen beschränkten Basis lautet dann die Matrixeigenwertgleichung zu (2.52):

$\displaystyle {} \left[ \left( \begin{array}{ccc} T_1 & \hdots & 0 \vdots & \...
... {\ensuremath{\vec{\mathtt{a}}}}_n = E_n   {\ensuremath{\vec{\mathtt{a}}}}_n .$ (2.51)

Die Koeffizienten der endlich dimensionalen Darstellung der Wellenfunktion $ {\ensuremath{\zeta}}_n$ sind dabei zum Vektor $ {\ensuremath{\vec{\mathtt{a}}}}_n$ zusammengefasst worden. Im Vergleich mit Lösungsansätzen die die Nichtparabolizität außer Acht lassen, handelt es sich hier wegen der Matrixelemente der potenziellen Energie um ein Matrixeigenwertproblem mit vollbesetzter Matrix, welches mit Standardroutinen aus dem Algebrapacket LAPACK gelöst werden kann ([9]).

2.2.4 Implementierung im Simulator

Für die Implementierung in einer objektorientierten Sprache wurde eine eigene Klasse für Matrixelemente entworfen. Um Operatorfunktionen auszuwerten, wird jeweils auf eine Diagonalform transformiert, es werden also die Eigenwerte berechnet. Die Anwendung einer Operatorfunktion ist dann leicht durchzuführen. Um sowohl Speicherplatz als auch Rechenaufwand zu minimieren, werden drei Spezialfälle unterschieden. Erstens werden Matrixelemente eines Skalars wie zum Beispiel einer räumlich konstanten Masse als skalarer Wert behandelt. Zweitens liegen viele Matrizen bereits in Diagonalform vor und brauchen nicht diagonalisiert werden. Nur im allgemeinsten Fall ist die Berechnung der Eigenwerte und Eigenfunktionen der Matrix erforderlich.

Bei der Initialisierung des Simulators werden die Matrixelemente der Operatoren $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}_1$ und $ {\ensuremath{{\ensuremath{\mathsf{T}}}}}_2$ mit Hilfe dieser Klasse berechnet. Ausgangspunkt sind dabei die Matrixelemente der bekannten Operatoren wie Masse, Nichtparabolizitätskoeffizient und $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}$. Bei den Umformungen ist dabei der Wechsel zwischen den beiden Basisfunktionen (Kosinus und Sinus) zu beachten, der es ermöglicht den Operator $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{0}$ in Matrizenform zu behandeln. Bei der Lösung der Schrödinger-Gleichung für ein anderes Potenzial können die Matrixelemente des Operators der kinetischen Energie wieder verwendet werden.

Für die Simulation muss weiters neben der Wahl einer passenden Ausdehnung $ {\ensuremath{L_z}}$ des Simulationsgebietes auch die Anzahl der verwendeten Basisfunktionen auf eine endliche Zahl reduziert werden. Zweitere Beschränkung muss einerseits eine ausreichende Genauigkeit beziehungsweise örtliche Auflösung garantieren, andererseits aber die Anforderungen an Speicherplatz und vor allem Rechenzeit in realistischen Grenzen halten. Die Anforderungen bei der Wahl von $ {\ensuremath{L_z}}$ sind ähnlich geschichtet. Der Wert muss groß genug gewählt sein, um bei den zu erwartenden Potenzialverhältnissen ein realistisches Abklingen der Wellenfunktionen zu ermöglichen. Gleichzeitig garantiert allerdings wegen der Wahl einer endlichen Anzahl an Basisfunktionen nur ein möglichst kleiner Wert von $ {\ensuremath{L_z}}$ die korrekte Darstellung örtlich rasch oszillierender Wellenfunktionen an der Grenze zum Oxid.

Abbildung 2.5: Vergleich der parabolischen, polynomialen und punktweise berechneten Energiedispersionsrelation für einige Subbänder.
\includegraphics[]{Schroedinger/energy-fin.eps}

In Abbildung 2.5 sind die Dispersionsrelationen im ersten, fünften und zehnten Subband dargestellt. Zuerst sind die durch (2.29) eingeführten Dispersionsrelationen mit den Subbandmassen und Nichtparabolizitätskoeffizienten aus (2.31) und (2.32) dargestellt. Der Verlauf der sich aus der bei Termen vierter Ordnung abgebrochenen Polynomdarstellung nach (2.28) ergibt ist ebenfalls gezeigt. Deutlich zu erkennen ist der problematische Verlauf dieser polynomialen Approximation. Bei steigender Wellenzahl ergeben sich negative Energiewerte. Zwar hat auch die nichtparabolische Dispersionsrelation in diesem Bereich keine physikalische Berechtigung, die Energie bleibt jedoch positiv definit. Bei Berechnungen der Elektronendichte wird für große Werte des Wellenvektors der Beitrag durch die dann rasch abklingende Verteilungsfunktion verschwinden. Beim Berechnen der Matrix in (2.53) ist für einen bestimmten Wert des Parallel-Wellenvektors $ {K}$ die Störung $ {\ensuremath{{\ensuremath{\mathsf{G}}}}}_{1}
{K}^2$ in der Spektraldarstellung des Operators der kinetischen Energie (2.20) nur eine Konstante. Diese Störung kann bei der Berechnung der Matrixelemente inkludiert werden und liefert eine punktweise berechnete Dispersionsrelation, wie sie in Abbildung 2.5 eingezeichnet wurde.


next up previous contents
Next: 2.3 Erweiterung auf Heterostrukturen Up: 2. Schrödinger-Poisson-Solver Previous: 2.1 Schrödinger-Gleichung

C. Troger: Modellierung von Quantisierungseffekten in Feldeffekttransistoren