Artikel

7.4: Kewujudan Nilai Eigen - Matematik

7.4: Kewujudan Nilai Eigen - Matematik



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Dalam apa yang berikut, kami ingin mengkaji persoalan kapan nilai eigen wujud untuk operator tertentu (T ). Untuk menjawab soalan ini, kami akan menggunakan polinomial (p (z) in mathbb {F} [z] ) yang dinilai pada operator (T in mathcal {L} (V, V) ) (atau, sama, pada matriks persegi (A in mathbb {F} ^ {n times n} ). Secara lebih jelas, diberikan polinomial

[p (z) = a_0 + a_1 z + cdots + a_k z ^ k ]

kita boleh mengaitkan operator

[p (T) = a_0 I_V + a_1 T + cdots + a_k T ^ k. ]

Perhatikan bahawa, untuk (p (z), q (z) in mathbb {F} [z] ), kita mempunyai

mulakan {persamaan *}
(pq) (T) = p (T) q (T) = q (T) p (T).
end {persamaan *}

Hasil bahagian ini adalah untuk ruang vektor yang kompleks. Ini kerana bukti kewujudan nilai eigen bergantung pada Teorem Fundamental Algebra dari Bab 3, yang membuat pernyataan mengenai kewujudan sifar polinomial melebihi ( mathbb {C} ).

Teorema 7.4.1: Jarak

Biarkan (V neq {0 } ) menjadi ruang vektor dimensi terhingga ( mathbb {C} ), dan biarkan (T in mathcal {L} (V, V) ). Kemudian (T ) mempunyai sekurang-kurangnya satu nilai eigen.

Bukti

Biarkan (v in V ) dengan (v neq 0 ), dan pertimbangkan senarai vektor

mulakan {persamaan *}
(v, Tv, T ^ 2v, ldots, T ^ nv),
end {persamaan *}

di mana (n = redup (V) ). Oleh kerana senarai itu mengandungi vektor (n + 1 ), ia mesti bergantung secara linear. Oleh itu, terdapat skala (a_0, a_1, ldots, a_n in mathbb {C} ), tidak semua sifar, sehingga

mulakan {persamaan *}
0 = a_0 v + a_1 Tv + a_2 T ^ 2 v + cdots + a_n T ^ n v.
end {persamaan *}

Biarkan (m ) menjadi indeks terbesar yang (a_m neq 0 ). Oleh kerana (v neq 0 ), kita mesti mempunyai (m> 0 ) (tetapi mungkin (m = n ). Pertimbangkan polinomial

mulakan {persamaan *}
p (z) = a_0 + a_1 z + cdots + a_m z ^ m.
end {persamaan *}

Dengan Teorem 3.2.3 (3) boleh difaktorkan sebagai
mulakan {persamaan *}
p (z) = c (z- lambda_1) cdots (z- lambda_m),
end {persamaan *}

di mana (c, lambda_1, ldots, lambda_m in mathbb {C} ) dan (c neq 0 ).

Oleh itu,
mulakan {persamaan *}
mulakan {perpecahan}
0 & = a_0 v + a_1 Tv + a_2 T ^ 2 v + cdots + a_n T ^ n v = p (T) v
& = c (T- lambda_1 I) (T- lambda_2 I) cdots (T- lambda_m I) v,
tamat {perpecahan}
end {persamaan *}
dan sekurang-kurangnya salah satu faktor (T- lambda_j I ) mestilah tidak bersifat injeksi. Dengan kata lain, ini ( lambda_j ) adalah nilai eigen dari (T ).

Perhatikan bahawa bukti Teorem 7.4.1 hanya menggunakan konsep asas mengenai peta linier, yang merupakan pendekatan yang sama seperti dalam buku teks popular yang disebut Aljabar Linear Selesai ke Kanan oleh Sheldon Axler. Banyak buku teks lain bergantung pada bukti yang lebih sukar menggunakan konsep seperti penentu dan ciri polinomial matriks. Pada masa yang sama, selalunya lebih baik menggunakan ciri polinomial matriks untuk menghitung maklumat eigen dari pengendali; kita membincangkan pendekatan ini dalam Bab 8.

Perhatikan juga bahawa Teorem 7.4.1 tidak berlaku untuk ruang vektor sebenar. Contohnya, seperti yang kita lihat dalam Contoh 7.2.2, pengendali putaran (R ) pada ( mathbb {R} ^ 2 ) tidak mempunyai nilai eigen.


Jawapannya adalah tidak'. Pasangan generik $ A $ dan $ B $ $ 4 $ -dengan- $ 4 $ Matriks simetri Hermitian tidak akan mempunyai gabungan linear nyata bukan sifar yang mempunyai nilai eigen berganda.

Untuk contoh tertentu, ambil $ A = begin-1 & amp0 & amp0 & amp0 0 & amp1 & amp0 & amp0 0 & amp0 & amp-2 & amp0 0 & amp0 & amp0 & amp2 akhir quad teks quad B = bermula0 & ampi & amp0 & amp0 - i & amp0 & amp0 & amp0 0 & amp0 & amp0 & amp2i 0 & amp0 & amp-2i & amp0 end. $ Kemudian $ det (aA + bB - tI_4) = (t ^ 2-a ^ 2-b ^ 2) (t ^ 2-4a ^ 2-4b ^ 2), $ dan akar polinomial ini dalam $ t $ berbeza kecuali $ a = b = 0 $. (Ingatlah bahawa kita menganggap bahawa $ a $ dan $ b $ adalah nyata, yang tentunya menyiratkan bahawa $ t $ adalah nyata.)

Catatan yang Ditambah: Untuk melihat tuntutan bahawa harta ini dimiliki untuk generik pasangan bebas linear dari simetri Hermitian $ 4 $ -dengan- $ 4 $ matriks $ A $ dan $ B $, hanya perlu memerhatikan perkara berikut: Persoalannya ialah, untuk pasangan generik seperti itu $ A $ dan $ B $ di $ 16 $ -dimensi ruang vektor sebenar $ mathcal_4 $ yang terdiri daripada $ 4 $ -dengan- $ 4 $ Matriks simetri Hermitian, jangkaan (sebenar) $ A $, $ B $, dan $ I_4 $ mengandungi unsur peringkat bukan sifar paling banyak $ 2 $. Sekarang, tidak sukar untuk menunjukkan bahawa unsur unsur $ C_2 $ dalam $ mathcal_4 $ yang mempunyai pangkat paling banyak $ 2 $ adalah kon algebra tertutup berdimensi $ 12 $ (satu yang bersendirian sepanjang lokus dimensi $ 7 elemen kedudukan paling banyak $ 1 $). Oleh itu, ruang bawah dimensi $ 3 $ generik $ mathcal_4 $ akan memenuhi kerucut ini hanya pada matriks sifar. Ia juga merupakan keadaan terbuka (walaupun tidak padat) pada ruang bawah dimensi $ 3 $ yang mengandungi unsur pasti positif. Oleh kerana standard $ mathrm(4, mathbb$ - tindakan pada $ mathcal_4 $ bertindak secara sementara pada ruang elemen pasti positif, ia menunjukkan bahawa pasangan generik $ A $, $ B $, bersama dengan $ I_4 $ akan merangkumi $ 3 $ -plane yang memenuhi $ C_2 $ hanya pada asal, iaitu apa yang hendak ditunjukkan.


Lebih baik jika anda menulis definisi matriks anda dengan cara yang lebih mudah dibaca. Dari apa yang anda tulis, nampaknya matriks anda memenuhi $ M (k, k + 1) M (k + 1, k) geq 0 $. Dengan keadaan ini, semua nilai eigen adalah nyata.

Secara amnya nilai eigen matriks Jacobi (3-diagonal) tidak akan berubah jika anda mengganti kedua-dua elemen pepenjuru $ M (k, k + 1) $ dan $ M (k + 1, k) $ dengan punca kuasa dua produk mereka . Oleh itu, jika produk unsur pepenjuru positif anda memperoleh matriks simetrik.

Ruj R. Gantmakher dan M. Kerin, matriks ayunan. MR1908601.

EDIT. Salah satu cara untuk membuktikannya ditunjukkan dalam komen di bawah oleh Anthony Quas. Cara lain (digunakan dalam Gantmakher dan Kerin) adalah dengan menulis secara eksplisit karakteristik polinomial, dan perhatikan bahawa elemen luar pepenjuru hanya masuk dalam bentuk produk $ M (k, k + 1) M (k + 1, k) $ .

Satu lagi komen. Hujah ini menunjukkan bahawa selalu ada bentuk kuadratik yang ditulis secara eksplisit berkenaan dengan pengendali kami adalah Hermitean. Sekiranya produk dari unsur diagonal semua positif, bentuk kuadratik ini pasti positif, dan kita mempunyai semua nilai eigen yang sebenar. Tetapi walaupun produknya tidak semuanya positif, dan bentuk kuadratik tidak tentu, kadangkala seseorang dapat memperoleh kewujudan BEBERAPA nilai eigen sebenar dengan menggunakan teorema Pontryagin pada operator Hermitean berkenaan dengan bentuk yang tidak terbatas.


7.4: Kewujudan Nilai Eigen - Matematik

Semua artikel yang diterbitkan oleh MDPI disediakan dengan segera di seluruh dunia dengan lesen akses terbuka. Tidak diperlukan kebenaran khas untuk menggunakan semula semua atau sebahagian artikel yang diterbitkan oleh MDPI, termasuk angka dan jadual. Untuk artikel yang diterbitkan di bawah lesen akses terbuka Creative Common CC BY, mana-mana bahagian artikel boleh digunakan semula tanpa kebenaran dengan syarat artikel asal disebut dengan jelas.

Feature Papers mewakili penyelidikan yang paling maju dengan potensi besar untuk memberi kesan tinggi di lapangan. Kertas Ciri diserahkan atas jemputan atau cadangan individu oleh penyunting ilmiah dan menjalani semakan rakan sebaya sebelum diterbitkan.

Kertas Ciri boleh berupa artikel penyelidikan yang asli, kajian penyelidikan novel yang besar yang sering melibatkan beberapa teknik atau pendekatan, atau makalah kajian yang komprehensif dengan kemas kini yang tepat dan tepat mengenai kemajuan terkini dalam bidang yang secara sistematik mengkaji kemajuan yang paling menarik dalam bidang ilmiah sastera. Jenis kertas ini memberikan pandangan mengenai arah penyelidikan masa depan atau kemungkinan aplikasi.

Artikel Pilihan Editor berdasarkan kepada cadangan oleh editor saintifik jurnal MDPI dari seluruh dunia. Editor memilih sebilangan kecil artikel yang baru-baru ini diterbitkan dalam jurnal yang mereka percaya akan sangat menarik bagi pengarang, atau penting dalam bidang ini. Tujuannya adalah untuk memberikan gambaran tentang beberapa karya paling menarik yang diterbitkan di pelbagai bidang penyelidikan jurnal.


1 Jawapan 1

Lema Schur mempunyai bukti yang sama dalam kategori $ ab $ line abelian $ k $ seperti biasa: jika $ T: M hingga M $ adalah endomorfisme bukan nol objek sederhana, dengan kesederhanaan ia mesti mempunyai kernel dan cokernel sepele, jadi adalah isomorfisme. Oleh itu $ teks(M) $ ialah aljabar pembahagian lebih dari $ k $. Sekiranya lebih jauh $ k $ ditutup secara aljabar dan $ teks(M) $ adalah dimensi terhingga (mis. Jika $ C $ mempunyai homet dimensi terhingga) maka $ teks(M) = k $.

Begitu juga jika $ k $ ditutup secara aljabar dan $ teks(M) $ adalah dimensi terhingga maka setiap endomorfisme $ T: M hingga M $ mempunyai sekurang-kurangnya satu nilai eigen (jika $ M $ bukan nol), kerana peta semula jadi

$ k [x] ni f (x) mapsto f (T) in teks(M) $

mempunyai kernel nontrivial (dihasilkan oleh polinomial minimum $ T $). Bekerja sedikit lebih berhati-hati untuk memeriksa bahawa semua butiran masih berfungsi seperti biasa tanpa unsur: if $ m (t) = prod (t - lambda_i) ^$ adalah polinomial minimum $ T $, maka $ m (T) = 0 $ menyiratkan bahawa (jika $ M neq 0 $) sekurang-kurangnya salah satu faktor $ (T - lambda_i) ^$ bukan monomorfisme, oleh itu mempunyai kernel yang tidak remeh.

Bagi kes yang tidak dapat dikomposisi, dengan hipotesis yang sama seperti di atas $ M $ secara semula jadi modul melebihi $ k [x] / m (x) cong prod k [x] / (x - lambda_i) ^$. Idempoten primitif produk ini membahagi $ M $ menjadi jumlah langsung ruang ejen umum $ T $ (ini adalah ciri umum endomorfisme idempoten dalam kategori abelian dan juga tidak memerlukan unsur), jadi jika $ M $ tidak dapat dikomposisi maka $ T $ mempunyai satu nilai eigen $ lambda $ dan $ T - lambda $ tidak berpotensi seperti biasa.


Kursus Pertama dalam Aljabar Linear: (Versi Beta)

Dalam bahagian ini, kita akan menentukan nilai eigen dan vektor eigen dari suatu matriks, dan melihat cara menghitungnya. Lebih banyak sifat teori akan diambil di bahagian seterusnya.

Subseksyen EEM Nilai Eigen dan Eigenvektor Matrik

Kita mulakan dengan definisi utama untuk bab ini.

Definisi EEM. Nilai Eigen dan Eigenvektor Matriks.

Katakan bahawa (A ) adalah matriks persegi dengan ukuran (n text <,> ) ( vect neq zerovector ) adalah vektor di ( kompleks text <,> ) dan ( lambda ) adalah skalar di ( complexes text <.> ) Kemudian kita katakan ( vect) adalah (A ) dengan ( lambda ) jika

Sebelum melangkah lebih jauh, mungkin kita harus meyakinkan anda bahawa perkara seperti itu pernah berlaku sama sekali. Fahami contoh seterusnya, tetapi jangan bimbangkan sendiri dari mana asalnya. Kami akan mempunyai kaedah secepat mungkin untuk dapat menemui vektor eigen ini sendiri.

Contoh 1. Beberapa nilai eigen dan vektor eigen.

jadi ( vect) adalah eigenvector (A ) dengan eigenvalue ( lambda = 4 text <.> )

jadi ( vect) adalah eigenvector (A ) dengan eigenvalue ( lambda = 0 text <.> )

jadi ( vect) adalah eigenvector (A ) dengan eigenvalue ( lambda = 2 text <.> )

jadi ( vect) adalah eigenvector (A ) dengan eigenvalue ( lambda = 2 text <.> )

Oleh itu, kami telah menunjukkan empat vektor eigen (A text <.> ) Adakah terdapat lebih banyak lagi? Ya, mana-mana gandaan skalar nol dari vektor eigen adalah vektor eigen. Dalam contoh ini, tetapkan ( vect= 30 vect text <.> ) Kemudian

supaya ( vect) juga vektor eigen (A ) untuk nilai eigen yang sama, ( lambda = 4 teks <.> )

Vektor ( vect) dan ( vect) kedua-dua vektor eigen (A ) untuk nilai eigen yang sama ( lambda = 2 text <,> ) namun ini tidak semudah dua vektor yang hanya menjadi kelipatan skalar satu sama lain (mereka tidak) . Lihat apa yang berlaku apabila kita menambahkannya bersama, untuk membentuk ( vect= vect+ vect text <,> ) dan darab dengan (A text <,> )

supaya ( vect) juga vektor eigen (A ) untuk nilai eigen ( lambda = 2 text <.> ) Oleh itu, sepertinya kumpulan eigen vektor yang dikaitkan dengan nilai eigen tetap ditutup di bawah ruang vektor operasi ( kompleks teks <.> ) Hmmm.

Vektor ( vect) adalah eigen vektor (A ) untuk nilai eigen ( lambda = 0 text <,> ) sehingga kita dapat menggunakan Theorem ZSSM untuk menulis (A vect= 0 vect= zerovector text <.> ) Tetapi ini juga bermaksud bahawa ( vect in nsp text <.> ) Nampaknya ada sambungan di sini juga.

Sage EE. Nilai Eigen dan Eigenvektor.

Sage dapat mengira nilai eigen dan eigen vektor matriks. Kami akan melihat sebentar lagi bahawa ada kehalusan yang terlibat dengan penggunaan rutin ini, tetapi berikut adalah contoh cepat untuk memulakan. Kedua-dua perintah ini harus cukup untuk memulakan anda dengan kebanyakan contoh awal di bahagian ini. Lihat bahagian akhir untuk mendapatkan nasihat yang lebih komprehensif.

Untuk matriks persegi, kaedah .eigenvalues ​​() dan .eigenvectors_right () akan menghasilkan apa yang anda harapkan, walaupun format output eigenvector memerlukan beberapa penjelasan. Inilah Contoh LIHAT dari awal bab ini.

Tiga nilai eigen yang kita tahu termasuk dalam output nilai eigen (), walaupun untuk beberapa sebab nilai eigen ( lambda = 2 ) muncul dua kali.

Keluaran kaedah eigenvectors_right () adalah senarai tiga kali ganda. Setiap triple bermula dengan nilai eigen. Ini diikuti oleh senarai vektor eigen untuk nilai eigen tersebut. Perhatikan eigenvector pertama sama dengan yang kita jelaskan dalam Contoh SEE. Eigenvector untuk ( lambda = 0 ) berbeza, tetapi hanya gandaan skalar dari Contoh SEE. Untuk ( lambda = 2 text <,> ) kita sekarang mendapat dua vektor eigen, dan tidak kelihatan seperti salah satu dari Contoh SEE. (Petunjuk: cuba tulis masing-masing vektor eigen untuk ( lambda = 2 ) dari contohnya sebagai kombinasi linear dari dua vektor eigen yang disediakan oleh Sage.) Penjelasan mengenai bahagian ketiga setiap tiga (bilangan bulat) perlu menunggu , walaupun boleh ditindas secara pilihan jika dikehendaki.

Satu catatan amaran: Kata lambda mempunyai tujuan khas di Sage, jadi jangan cuba menggunakannya sebagai nama untuk nilai eigen anda.

Contoh SEE mengisyaratkan sejumlah sifat menarik, dan masih banyak lagi. Kami akan meneroka sifat umum nilai eigen dan vektor eigen di Bahagian PEE, tetapi di bahagian ini kita akan membahas diri sendiri dengan persoalan mengenai mengira nilai eigen dan eigen vektor. Mula-mula kita memerlukan sedikit bahan latar belakang pada polinomial dan matriks.

Subseksyen PM Polinomial dan Matriks

Polinomial adalah gabungan kekuatan, pendaraban dengan pekali skalar, dan penambahan (dengan pengurangan hanya menjadi penambahan terbalik). Kami tidak pernah berpeluang membelah ketika mengira nilai polinomial. Begitu juga dengan matriks. Kita boleh menambah dan mengurangkan matriks, kita dapat mengalikan matriks dengan skalar, dan kita dapat membentuk kekuatan matriks persegi dengan aplikasi pendaraban matriks berulang. Kita biasanya tidak membahagi matriks (walaupun kadang-kadang kita boleh membiak dengan terbalik). Sekiranya matriks adalah segi empat sama, semua operasi yang membentuk polinomial akan mengekalkan ukuran matriks. Oleh itu, adalah wajar untuk mempertimbangkan menilai polinomial dengan matriks, dengan berkesan menggantikan pemboleh ubah polinomial dengan matriks. Kami akan menunjukkan dengan contoh.

Contoh 2. Polinomial matriks.

dan kami akan mengira (p (D) text <.> )

Pertama, kekuatan yang diperlukan dari (D text <.> ) Perhatikan bahawa (D ^ 0 ) ditakrifkan sebagai identiti pendaraban, (I_3 text <,> ) seperti yang akan berlaku secara umum . Kami mempunyai

Perhatikan bahawa (p (x) ) faktor sebagai

Kerana (D ) bergerak dengan sendirinya ( (DD = DD )), kita dapat menggunakan pembahagian pendaraban matriks merentasi penambahan matriks (Teorem MMDAA) tanpa berhati-hati dengan mana-mana produk matriks, dan dengan mudah menilai ( p (D) ) menggunakan bentuk faktor (p (x) text <,> )

Contoh ini tidak bermaksud terlalu mendalam. Ia adalah bertujuan untuk menunjukkan kepada anda bahawa wajar untuk menilai polinomial dengan matriks, dan bahawa bentuk faktor polinomial adalah sebaik (atau mungkin lebih baik daripada) bentuk yang diperluas. Dan jangan lupa bahawa istilah tetap dalam polinomial adalah gandaan matriks identiti semasa kita menilai polinomial dengan matriks.

Subseksyen EEE Nilai Eigen dan Eigenvektor

Sebelum kita mengira nilai eigen dan vektor eigen, kita akan membuktikan bahawa setiap matriks mempunyai sekurang-kurangnya satu nilai eigen (dan vektor eigen untuk menggunakannya). Kemudian, dalam Teorem MNEM, kami akan menentukan bilangan maksimum nilai eigen yang mungkin dimiliki matriks.

Penentu (Definisi DM) akan menjadi alat yang kuat dalam Subseksyen EE.CEE apabila tiba waktunya untuk mengira nilai eigen. Walau bagaimanapun, adalah mungkin, dengan beberapa mesin yang lebih maju, untuk menghitung nilai eigen tanpa menggunakan penentu. Sheldon Axler melakukan perkara itu dalam bukunya, Linear Algebra Done Right. Di sini dan sekarang, kami memberikan bukti "bebas penentu" Axler bahawa setiap matriks mempunyai nilai eigen. Hasilnya tidak terlalu mengejutkan, tetapi buktinya sangat menggembirakan.

Teorem EMHE. Setiap Matriks Mempunyai Nilai Eigen.

Katakan (A ) adalah matriks segiempat sama. Kemudian (A ) mempunyai sekurang-kurangnya satu nilai eigen.

Bukti.

Katakan bahawa (A ) mempunyai ukuran (n text <,> ) dan pilih ( vect) sebagai ada vektor bukan sifar dari ( kompleks text <.> ) (Perhatikan berapa banyak lintang yang kita ada dalam pilihan kita ( vect text <.> ) Hanya vektor sifar yang berada di luar had.) Pertimbangkan set

Ini adalah sekumpulan vektor (n + 1 ) dari ( complex text <,> ) oleh Theorem MVSLD, (S ) bergantung secara linear. Biarkan (a_0, , a_1, , a_2, , ldots, , a_n ) menjadi koleksi (n + 1 ) skalar dari ( complexes text <,> ) tidak semuanya sifar , yang memberikan hubungan pergantungan linear pada (S text <.> ) Dengan kata lain,

Sebilangan (a_i ) bukan sifar. Katakan bahawa hanya (a_0 neq 0 text <,> ) dan (a_1 = a_2 = a_3 = cdots = a_n = 0 text <.> ) Kemudian (a_0 vect= zerovector ) dan oleh Theorem SMEZV, sama ada (a_0 = 0 ) atau ( vect= zerovector text <,> ) yang kedua-duanya bertentangan. Oleh itu (a_i neq 0 ) untuk beberapa (i geq 1 text <.> ) Biarkan (m ) menjadi bilangan bulat terbesar sehingga (a_m neq 0 text <.> ) Dari perbincangan ini kita tahu bahawa (m geq 1 text <.> ) Kita juga boleh menganggap bahawa (a_m = 1 text <,> ) untuk jika tidak, ganti setiap (a_i ) dengan (a_i / a_m ) untuk mendapatkan skalar yang berfungsi sama baik dalam memberikan hubungan ketergantungan linear pada (S text <.> )

Oleh kerana kami telah menggunakan ( complexes ) secara konsisten sebagai kumpulan skalar kami (bukannya (< mathbb R> )), kami tahu bahawa kami dapat memfaktorkan (p (x) ) menjadi faktor linear bentuk ((x-b_i) text <,> ) di mana (b_i in complexes text <.> ) Jadi ada skalar, ( scalarlist text <,> ) dari ( complexes ) sehingga,

Biarkan (k ) menjadi bilangan bulat terkecil sehingga

Dari persamaan sebelumnya, kita tahu bahawa (k leq m text <.> ) Tentukan vektor ( vectoleh)

Perhatikan bahawa dengan definisi (k text <,> ) vektor ( vect) mestilah bukan sifar. Sekiranya (k = 1 text <,> ) kita faham bahawa ( vect) ditakrifkan oleh ( vect= vect text <,> ) dan ( vect) masih bukan sifar. Sekarang

Sejak ( vect neq zerovector text <,> ) persamaan ini mengatakan bahawa ( vect) adalah vektor eigen (A ) untuk nilai eigen ( lambda = b_k ) (Definisi EEM), jadi kami telah menunjukkan bahawa mana-mana matriks persegi (A ) mempunyai sekurang-kurangnya satu nilai eigen.

Bukti Theorem EMHE adalah konstruktif (ia mengandungi prosedur yang tidak jelas yang membawa kepada nilai eigen), tetapi tidak bermaksud praktikal. Kami akan menerangkan teorema dengan contoh, yang bertujuan untuk memberi teman untuk mengkaji bukti dan tidak mencadangkan ini adalah prosedur terbaik untuk mengira nilai eigen.

Contoh 3. Mengira nilai eigen dengan cara yang sukar.

Contoh ini menggambarkan bukti Theorem EMHE, dan demikian akan menggunakan notasi yang sama dengan bukti - lihat di sana untuk penjelasan lengkap. Ia adalah tidak dimaksudkan untuk menjadi contoh pendekatan komputasi yang wajar untuk mencari nilai eigen dan vektor eigen. OK, amaran ada, ini dia.

Pertimbangkan matriks (A text <,> ) dan pilih vektor ( vect teks <,> )

Penting untuk diperhatikan bahawa pilihan ( vect) boleh jadi apa sahaja, selama ini tidak vektor sifar. Kami belum memilih ( vect) secara rawak, tetapi untuk menjadikan ilustrasi teorema kita seluas mungkin. Anda boleh meniru contoh ini dengan pilihan anda sendiri dan pengiraannya dijamin munasabah, dengan syarat anda mempunyai alat pengiraan yang akan menjadi faktor polinomial darjah kelima untuk anda.

dijamin bergantung secara linear, kerana ia mempunyai enam vektor dari ( complex <5> ) (Theorem MVSLD).

Kami akan mencari hubungan bebas dari ketergantungan linear dengan menyelesaikan sistem persamaan homogen yang matriks pekali mempunyai vektor (S ) sebagai lajur melalui operasi baris,

Terdapat empat pemboleh ubah bebas untuk menerangkan penyelesaian sistem homogen ini, jadi kami mempunyai pilihan penyelesaian kami. Pilihan yang paling pantas adalah menetapkan (x_3 = 1 ) dan (x_4 = x_5 = x_6 = 0 text <.> ) Namun, kami sekali lagi akan memilih untuk memaksimumkan keluasan ilustrasi Theorem EMHE kami dan memilih (x_3 = -8 text <,> ) (x_4 = -3 text <,> ) (x_5 = 1 ) dan (x_6 = 0 text <.> ) Ini membawa kepada penyelesaian dengan (x_1 = 16 ) dan (x_2 = 12 teks <.> )

Hubungan ketergantungan linear ini kemudian mengatakan bahawa

Oleh itu, kita menentukan (p (x) = 16 + 12x-8x ^ 2-3x ^ 3 + x ^ 4 text <,> ) dan seperti yang diiklankan dalam bukti Theorem EMHE, kita mempunyai polinomial darjah ( m = 4 gt 1 ) sehingga (p (A) vect= zerovector text <.> ) Sekarang kita perlu memfaktorkan (p (x) ) over ( complexes text <.> ) Sekiranya anda membuat pilihan sendiri ( vect) pada awalnya, di sinilah anda mungkin mempunyai polinomial darjah kelima, dan di mana anda mungkin perlu menggunakan alat komputasi untuk mencari punca dan faktor. Kami mempunyai

Kami menerapkan satu faktor pada satu masa, sehingga kita mendapat vektor nol, untuk menentukan nilai (k ) yang dijelaskan dalam bukti Theorem EMHE,

adalah eigen vektor (A ) untuk nilai eigen ( lambda = -2 text <,> ) seperti yang anda periksa dengan melakukan pengiraan (A vect text <.> ) Sekiranya anda menggunakan contoh ini dengan pilihan vektor anda sendiri ( vect) (sangat disyorkan) maka nilai eigen yang anda dapati mungkin berbeza, tetapi akan berada dalam set ( set <3, , 0, , 1, , - 1, , - 2> text < .> ) Lihat Latihan EE.M60 untuk vektor permulaan yang dicadangkan.

Subseksyen CEE Computing Eigenvalues ​​and Eigenvectors

Nasib baik, kita tidak perlu bergantung pada prosedur Theorem EMHE setiap kali kita memerlukan nilai eigen. Ini adalah penentu, dan khususnya Teorem SMZD, yang menyediakan alat utama untuk mengira nilai eigen. Berikut adalah urutan kesetaraan tidak rasmi yang merupakan kunci untuk menentukan nilai eigen dan vektor eigen dari suatu matriks,

Jadi, untuk nilai eigen ( lambda ) dan eigenvector yang berkaitan ( vect neq zerovector text <,> ) vektor ( vect) akan menjadi unsur bukan sifar dari ruang kosong (A- lambda I_n text <,> ) sementara matriks (A- lambda I_n ) akan menjadi tunggal dan oleh itu mempunyai penentu sifar. Idea-idea ini dibuat dengan tepat dalam Theorem EMRCP dan Theorem EMNS, tetapi buat masa ini perbincangan ringkas ini sudah cukup sebagai motivasi untuk definisi dan contoh berikut.

Definisi CP. Polinomial Ciri.

Katakan bahawa (A ) adalah matriks persegi dengan ukuran (n text <.> ) Maka (A ) adalah polinomial ( charpoly) ditakrifkan oleh

Contoh 4. Ciri khas polinomial matriks, saiz 3.

Polinomial ciri adalah alat komputasi utama kami untuk mencari nilai eigen, dan kadang-kadang akan digunakan untuk membantu kita dalam menentukan sifat nilai eigen.

Teorem EMRCP. Nilai Eigen Matriks adalah Akar Polinomial Karakteristik.

Katakan (A ) adalah matriks segiempat sama. Maka ( lambda ) adalah nilai eigen dari (A ) jika dan hanya jika ( charpoly < lambda> = 0 text <.> )

Bukti.

Katakan (A ) mempunyai ukuran (n teks <.> ) Kemudian

Contoh 5. Nilai eigen dari matriks, saiz 3.

Dalam Contoh CPMS3 kami dapati ciri polinomial bagi

menjadi ( charpoly= - (x-3) (x + 1) ^ 2 text <.> ) Dengan faktor, kita dapat menemui semua akarnya dengan mudah, mereka adalah (x = 3 ) dan (x = -1 teks <.> ) Oleh Teorem EMRCP, ( lambda = 3 ) dan ( lambda = -1 ) adalah kedua-dua nilai eigen (F text <,> ) dan ini adalah satu-satunya nilai eigen dari ( F text <.> ) Kami telah menemui semuanya.

Marilah kita mengalihkan perhatian kita pada perhitungan eigen vektor.

Definisi EM. Eigenspace of a Matrix.

Contoh SEE mengisyaratkan bahawa set vektor eigen untuk satu nilai eigen mungkin mempunyai beberapa sifat penutupan, dan dengan penambahan satu eigenvektor yang tidak pernah menjadi eigenvector, ( zerovector text <,> ) kita memang mendapat keseluruhan ruang.

Teorem EMS. Eigenspace for a Matrix adalah Subspace.

Katakan (A ) adalah matriks persegi dengan ukuran (n ) dan ( lambda ) adalah nilai eigen (A text <.> ) Kemudian eigenspace ( eigenspace < lambda> ) adalah ruang bawah ruang vektor ( kompleks teks <.> )

Bukti.

Kami akan memeriksa tiga syarat Theorem TSS. Pertama, Definisi EM secara eksplisit merangkumi vektor sifar di ( eigenspace < lambda> text <,> ) sehingga set itu tidak mudah.

Jadi sama ada ( vect+ vect= zerovector text <,> ) atau ( vect+ vect) adalah eigen vektor (A ) untuk ( lambda ) (Definisi EEM). Jadi, dalam kedua-dua acara, ( vect+ vect in eigenspace < lambda> text <,> ) dan kami mempunyai penutupan aditif.

Jadi sama ada ( alpha vect= zerovector text <,> ) atau ( alpha vect) adalah eigen vektor (A ) untuk ( lambda ) (Definisi EEM). Oleh itu, dalam kedua-dua acara, ( alpha vect in eigenspace < lambda> text <,> ) dan kami mempunyai penutupan skalar.

Dengan tiga syarat Teorem TSS dipenuhi, kita tahu ( eigenspace < lambda> ) adalah ruang bawah.

Teorem EMS memberitahu kita bahawa ruang eigens adalah ruang bawah (dan dengan itu ruang vektor dengan sendirinya). Teorema kami seterusnya memberitahu kami bagaimana membina ruang bawah ini dengan cepat.

Teorem EMNS. Eigenspace of a Matrix adalah Ruang Null.

Katakan (A ) adalah matriks persegi dengan ukuran (n ) dan ( lambda ) adalah nilai eigen (A text <.> ) Kemudian

Bukti.

Kesimpulan dari teorema ini adalah kesamaan set, jadi biasanya kita akan mengikuti nasihat Definisi SE. Walau bagaimanapun, dalam kes ini kita dapat membina urutan kesetaraan yang bersama-sama akan memberikan dua penyertaan subset yang kita perlukan. Pertama, perhatikan bahawa ( zerovector in eigenspace < lambda> ) oleh Definisi EM dan ( zerovector in nsp) oleh Theorem HSC. Sekarang pertimbangkan sebarang vektor bukan sifar ( vect dalam kompleks teks <,> )

Anda mungkin melihat persamaan yang hampir sama (dan perbezaan) antara bukti Theorem EMRCP dan Theorem EMNS. Oleh kerana Theorem EMNS menerangkan kumpulan semua eigen vektor (A ) sebagai ruang kosong, kita boleh menggunakan teknik seperti Theorem BNS untuk memberikan penerangan ringkas mengenai ruang eigens. Theorem EMNS juga memberikan bukti sepele untuk Theorem EMS.

Contoh 6. Eigenspaces dari matriks, saiz 3.

Contoh CPMS3 dan Contoh EMS3 menerangkan ciri polinomial dan nilai eigen dari matriks (3 kali 3 )

Kami sekarang akan menggunakan setiap nilai eigen secara bergantian dan menghitung ruang eigensinya. Untuk melakukan ini, kami mengurangkan baris matriks (F- lambda I_3 ) untuk menentukan penyelesaian sistem homogen ( homosystem) dan kemudian nyatakan ruang eigens sebagai ruang kosong (F- lambda I_3 ) (Teorem EMNS). Teorem BNS kemudian memberitahu kita bagaimana menulis ruang kosong sebagai jangka masa asas. Kami mempunyai

Ruang Eigens di tangan, kita dapat dengan mudah menghitung vektor eigen dengan membentuk kombinasi linear bukan vektor dasar yang menggambarkan setiap ruang eigens. Khususnya, perhatikan bahawa kita dapat "menambah" vektor dasar kita dengan menggunakan kelipatan skalar untuk membersihkan pecahan.

Subseksyen ECEE Contoh Pengiraan Nilai Eigen dan Eigenvektor

Tidak ada teorema di bahagian ini, hanya pilihan contoh yang dimaksudkan untuk menggambarkan berbagai kemungkinan untuk nilai eigen dan vektor eigen dari matriks. Contoh-contoh ini semuanya dapat dilakukan dengan tangan, walaupun pengiraan ciri polinomial sangat memakan masa dan ralat. Juga sukar untuk memfaktorkan polinomial sewenang-wenangnya, walaupun jika kita menyarankan bahawa kebanyakan nilai eigen kita akan menjadi bilangan bulat, maka lebih mudah untuk mencari akar. Contoh-contoh ini dimaksudkan untuk kelihatan serupa dengan gabungan Contoh CPMS3, Contoh EMS3 dan Contoh ESMS3. Pertama, kita akan menyelipkan beberapa definisi sehingga kita dapat menggambarkannya sepanjang urutan contoh ini.

Definisi AME. Kepelbagaian Algebra bagi Nilai Eigen.

Oleh kerana nilai eigen ( lambda ) adalah punca sifat polinomial, selalu ada faktor ((x- lambda) teks <,> ) dan darab algebra hanyalah kekuatan faktor ini dalam pemfaktoran ( charpoly text <.> ) Jadi secara khusus, ( algmult < lambda> geq 1 text <.> ) Bandingkan definisi darab algebra dengan definisi seterusnya.

Definisi GME. Kepelbagaian Geometri Nilai Eigen.

Katakan bahawa (A ) adalah matriks persegi dan ( lambda ) adalah nilai eigen (A text <.> ) Kemudian ( lambda text <,> ) ( geomult < lambda> text <,> ) adalah dimensi ruang eigenspace ( eigenspace < lambda> text <.> )

Setiap nilai eigen mesti mempunyai sekurang-kurangnya satu eigenvector, jadi ruang eigens yang berkaitan tidak boleh dianggap remeh, dan begitu juga ( geomult < lambda> geq 1 text <.> )

Contoh 7. Kepelbagaian nilai eigen, matriks ukuran 4.

Jadi nilai eigen adalah ( lambda = 1, , 2 ) dengan darab aljabar ( algmult<1> = 1 ) dan ( algmult<2> = 3 teks <.> )

Oleh itu, setiap ruang eigens mempunyai dimensi 1 dan begitu ( geomult<1> = 1 ) dan ( geomult<2> = 1 text <.> ) Contoh ini menarik kerana perbezaan antara dua darab untuk ( lambda = 2 text <.> ) Dalam banyak contoh kami, darab algebra dan geometri akan sama dengan semua nilai eigen (seperti untuk ( lambda = 1 ) dalam contoh ini), jadi ingatlah contoh ini. Kami akan mempunyai beberapa penjelasan untuk fenomena ini kemudian (lihat Contoh NDMS4).

Contoh 8. Nilai eigen, matriks simetri saiz 4.

Jadi nilai eigen adalah ( lambda = 3, , 1, , - 1 ) dengan darab algebra ( algmult<3> = 1 teks <,> ) ( algmult<1> = 2 ) dan ( algmult<-1> = 1 teks <.> )

Oleh itu, dimensi ruang eigens menghasilkan darab geometri ( geomult<3> = 1 teks <,> ) ( geomult<1> = 2 ) dan ( geomult<-1> = 1 text <,> ) sama seperti untuk darab algebra. Contoh ini menarik kerana (A ) adalah matriks simetri, dan akan menjadi subjek Theorem HMRE.

Contoh 9. Nilai eigen darab tinggi, matriks ukuran 5.

Jadi nilai eigen adalah ( lambda = 2, , - 1 ) dengan darab aljabar ( algmult<2> = 4 ) dan ( algmult<-1> = 1 teks <.> )

Oleh itu, dimensi ruang eigens menghasilkan darab geometri ( geomult<2> = 2 ) dan ( geomult<-1> = 1 text <.> ) Contoh ini menarik kerana ( lambda = 2 ) mempunyai darab aljabar yang begitu besar, yang juga tidak sama dengan darabnya geometri.

Contoh 10. Nilai eigen kompleks, matriks ukuran 6.

Oleh itu, nilai eigen adalah ( lambda = 2, , - 1,2 + i, , 2-i ) dengan darab algebra ( algmult<2> = 1 teks <,> ) ( algmult<-1> = 1 teks <,> ) ( algmult<2 + i> = 2 ) dan ( algmult<2-49 = 2 teks <.> )

Kami mengira vektor eigen, dengan memperhatikan bahawa dua vektor asas terakhir masing-masing merupakan skalar gandaan dari apa yang akan diberikan oleh Theorem BNS,

Dimensi ruang Eigens menghasilkan darab geometri ( geomult<2> = 1 teks <,> ) ( geomult<-1> = 1 teks <,> ) ( geomult<2 + i> = 1 ) dan ( geomult<2-49 = 1 text <.> ) Contoh ini menunjukkan beberapa kemungkinan untuk penampilan nilai eigen kompleks, walaupun semua entri matriks adalah nyata. Perhatikan bagaimana semua nombor dalam analisis ( lambda = 2-i ) adalah konjugat dari nombor yang sesuai dalam analisis ( lambda = 2 + i text <.> ) Ini adalah kandungan ERMCP Teorem yang akan datang.

Contoh 11. Nilai eigen yang berbeza, matriks ukuran 5.

Jadi nilai eigen adalah ( lambda = 2, , 1, , 0, , - 1, , - 3 ) dengan darab algebra ( algmult<2> = 1 teks <,> ) ( algmult<1> = 1 teks <,> ) ( algmult<0> = 1 teks <,> ) ( algmult<-1> = 1 ) dan ( algmult<-3> = 1 teks <.> )

Oleh itu, dimensi ruang eigens menghasilkan darab geometri ( geomult<2> = 1 teks <,> ) ( geomult<1> = 1 teks <,> ) ( geomult<0> = 1 teks <,> ) ( geomult<-1> = 1 ) dan ( geomult<-3> = 1 text <,> ) sama dengan darab algebra. Contoh ini menarik kerana dua sebab. Pertama, ( lambda = 0 ) adalah nilai eigen, yang menggambarkan Theorem SMZE yang akan datang. Kedua, semua nilai eigen berbeza, menghasilkan darab algebra dan geometri 1 untuk setiap nilai eigen, menggambarkan Teorem DED.

Sage CEVAL. Nilai Eigen pengkomputeran.

We can now give a more careful explanation about eigenvalues in Sage. Sage will compute the characteristic polynomial of a matrix, with amazing ease (in other words, quite quickly, even for large matrices). The two matrix methods .charpoly() and .characteristic_polynomial() do exactly the same thing. We will use the longer name just to be more readable, you may prefer the shorter.

We now can appreciate a very fundamental obstacle to determining the eigenvalues of a matrix, which is a theme that will run through any advanced study of linear algebra. Study this example carefully before reading the discussion that follows.

We know by Theorem EMRCP that to compute eigenvalues, we need the roots of the characteristic polynomial, and from basic algebra, we know these correspond to linear factors. However, with our matrix defined with entries from QQ , the factorization of the characteristic polynomial does not “leave” that number system, only factoring “far enough” to retain factors with rational coefficients. The solutions to (x^2 - 2 = 0) are somewhat obvious ((pmsqrt<2>approxpm 1.414213)), but the roots of the cubic factor are more obscure.

But then we have QQbar to the rescue. Since this number system contains the roots of every possible polynomial with integer coefficients, we can totally factor any characteristic polynomial that results from a matrix with entries from QQbar . A common situation will be to begin with a matrix having rational entries, yet the matrix has a characteristic polynomial with roots that are complex numbers.

We can demonstrate this behavior with the extend keyword option, which tells Sage whether or not to expand the number system to contain the eigenvalues.

For matrices with entries from QQ , the default behavior is to extend to QQbar when necessary. But for other number systems, you may need to explicitly use the extend=True option.

From a factorization of the characteristic polynomial, we can see the algebraic multiplicity of each eigenvalue as the second entry of the each pair returned in the list. We demonstrate with Example SEE, extending to QQbar , which is not strictly necessary for this simple matrix.

One more example, which illustrates the behavior when we use floating-point approximations as entries (in other words, we use CDF as our number system). This is Example EMMS4, both as an exact matrix with entries from QQbar and as an approximate matrix with entries from CDF .

So, we see (lambda=2) as an eigenvalue with algebraic multiplicity 3, while the numerical results contain three complex numbers, each very, very close to 2. The approximate nature of these eigenvalues may be disturbing (or alarming). However, their computation, as floating-point numbers, can be incredibly fast with sophisticated algorithms allowing the analysis of huge matrices with millions of entries. And perhaps your original matrix includes data from an experiment, and is not even exact in the first place. Designing and analyzing algorithms to perform these computations quickly and accurately is part of the field known as numerical linear algebra.

One cautionary note: Sage uses a definition of the characteristic polynomial slightly different than ours, namely (detname ext<.>) This has the advantage that the (x^n) term always has a positive one as the leading coefficient. For even values of (n) the two definitions create the identical polynomial, and for odd values of (n ext<,>) the two polynomials differ only by a multiple of (-1 ext<.>) The reason this is not very critical is that Theorem EMRCP is true in either case, and this is a principal use of the characteristic polynomial. Our definition is more amenable to computations by hand.

Sage CEVEC . Computing Eigenvectors.

There are three ways to get eigenvectors in Sage. For each eigenvalue, the method .eigenvectors_right() will return a list of eigenvectors that is a basis for the associated eigenspace. The method .eigenspaces_right() will return an eigenspace (in other words, a vector space, rather than a list of vectors) for each eigenvalue. There are also eigenmatrix methods which we will describe at the end of the chapter in Sage MD.

The matrix method .eigenvectors_right() (or equivalently the matrix method .right_eigenvectors() ) produces a list of triples, one triple per eigenvalue. Each triple has an eigenvalue, a list, and then the algebraic multiplicity of the eigenvalue. The list contains vectors forming a basis for the eigenspace. Notice that the length of the list of eigenvectors will be the geometric multiplicity (and there is no easier way to get this information).

Note that this is a good place to practice burrowing down into Sage output that is full of lists (and lists of lists). See if you can extract just the second eigenvector for (lambda=3) using a single statement. Or perhaps try obtaining the geometric multiplicity of (lambda=-2i ext<.>) Notice, too, that Sage has automatically upgraded to QQbar to get the complex eigenvalues.

The matrix method .eigenspaces_right() (equal to .right_eigenspaces() ) produces a list of pairs, one pair per eigenvalue. Each pair has an eigenvalue, followed by the eigenvalue's eigenspace. Notice that the basis matrix of the eigenspace may not have the same eigenvectors you might get from other methods. Similar to the eigenvectors method, the dimension of the eigenspace will yield the geometric multiplicity (and there is no easier way to get this information). If you need the algebraic multiplicities, you can supply the keyword option algebraic_multiplicity=True to get back triples with the algebraic multiplicity in the third entry of the triple. We will recycle the example above, and not demonstrate the algebraic multiplicity option. (We have formatted the one-row basis matrices over QQbar across several lines.)

Notice how the output includes a subspace of dimension two over the rationals, and two subspaces of dimension one over the algebraic numbers.

The upcoming Subsection EE.ECEE has many examples, which mostly reflect techniques that might be possible to verify by hand. Here is the same matrix as above, analyzed in a similar way. Practicing the examples in this subsection, either directly with the higher-level Sage commands, and/or with more primitive commands (as below) would be an extremely good exercise at this point.

Notice how we changed the number system to the algebraic numbers before working with the complex eigenvalues. Also, we are using the basis='pivot' keyword option so that bases for the eigenspaces look more like the bases described in Theorem BNS.

By now, it should be clear why we keep using the “right” variants of these methods. Eigenvectors can be defined “on the right”, (Avect=lambdavect) as we have done, or “on the left,” (vectA=lambdavect ext<.>) So use the “right” versions of the eigenvalue and eigenvector commands to stay consistent with the text. Recognize, too, that eigenspaces may be computed with different bases than those given in the text (typically like those for null spaces with the basis='echelon' option).

Why does the .eigenvalues() method not come in left and right versions? The upcoming Theorem ETM can be used to show that the two versions would have identical output, so there is no need.

Reading Questions EE Reading Questions

Suppose (A) is the (2 imes 2) matrix

Find the eigenvalues of (A ext<.>)

For each eigenvalue of (A ext<,>) find the corresponding eigenspace.

For the polynomial (p(x)=3x^2-x+2) and (A) from above, compute (p(A) ext<.>)

Exercises EE Exercises

Find the characteristic polynomial of the matrix

Find the characteristic polynomial of the matrix

Find the characteristic polynomial of the matrix

Find the eigenvalues, eigenspaces, algebraic multiplicities and geometric multiplicities for the matrix below. It is possible to do all these computations by hand, and it would be instructive to do so.

First compute the characteristic polynomial,

So the eigenvalues of (C) are the solutions to (charpoly=0 ext<,>) namely, (lambda=2) and (lambda=3 ext<.>) Each eigenvalue has a factor that appears just once in the characteristic polynomial, so (algmult<2>=1) and (algmult<3>=1 ext<.>)

To obtain the eigenspaces, construct the appropriate singular matrices and find expressions for the null spaces of these matrices.

Each eigenspace has a single basis vector, so the dimensions are both (1) and the geometric multiplicities are (geomult<2>=1) and (geomult<3>=1 ext<.>)

Find the eigenvalues, eigenspaces, algebraic multiplicities and geometric multiplicities for the matrix below. It is possible to do all these computations by hand, and it would be instructive to do so.

The characteristic polynomial of (B) is

From this we find eigenvalues (lambda=3,,-2) with algebraic multiplicities (algmult<3>=1) and (algmult<-2>=1 ext<.>)

For eigenvectors and geometric multiplicities, we study the null spaces of (B-lambda I_2) (Theorem EMNS).

Each eigenspace has dimension one, so we have geometric multiplicities (geomult<3>=1) and (geomult<-2>=1 ext<.>)

The matrix (A) below has (lambda=2) as an eigenvalue. Find the geometric multiplicity of (lambda=2) using your calculator only for row-reducing matrices.

If (lambda=2) is an eigenvalue of (A ext<,>) the matrix (A-2I_4) will be singular, and its null space will be the eigenspace of (A ext<.>) So we form this matrix and row-reduce,

With two free variables, we know a basis of the null space (Theorem BNS) will contain two vectors. Thus the null space of (A-2I_4) has dimension two, and so the eigenspace of (lambda=2) has dimension two also (Theorem EMNS), (geomult<2>=2 ext<.>)

Without using a calculator, find the eigenvalues of the matrix (B ext<.>)

The characteristic polynomial (Definition CP) is

where the factorization can be obtained by finding the roots of (charpoly=0) with the quadratic equation. By Theorem EMRCP the eigenvalues of (B) are the complex numbers (lambda_1=frac<3+sqrt<3>i><2>) and (lambda_2=frac<3-sqrt<3>i><2> ext<.>)

Find the eigenvalues, eigenspaces, algebraic and geometric multiplicities for

Find the eigenvalues, eigenspaces, algebraic and geometric multiplicities for

Find the eigenvalues, eigenspaces, algebraic and geometric multiplicities for the (3 imes 3) identity matrix (I_3 ext<.>) Do your results make sense?

The characteristic polynomial for (A = I_3) is (charpoly = (1-x)^3 ext<,>) which has eigenvalue (lambda = 1) with algebraic multiplicity (algmult <1>= 3 ext<.>)Looking for eigenvectors, we find that

The nullspace of this matrix is all of (complex<3> ext<,>) so that the eigenspace is (eigenspace <1>= spn,colvector<01>, colvector<01>>> ext<,>) and the geometric multiplicity is (gamma_A(1) = 3 ext<.>)

Does this make sense? Ya! Every vector (vect) is a solution to (I_3vect = 1vect ext<,>) so every nonzero vector is an eigenvector with eigenvalue 1. Since every vector is unchanged when multiplied by (I_3 ext<,>) it makes sense that (lambda = 1) is the only eigenvalue.


Orthogonal matrix

Real symmetric matrices not only have real eigenvalues, they are always diagonalizable. In fact, more can be said about the diagonalization.

We say that (U in mathbb^) is ortogonal if (U^mathsfU = UU^mathsf = I_n). In other words, (U) is orthogonal if (U^ <-1>= U^mathsf).

If we denote column (j) of (U) by (u_j), then the ((i,j))-entry of (U^mathsfU) is given by (u_icdot u_j). Since (U^mathsfU = I), we must have (u_jcdot u_j = 1) for all (j = 1,ldots n) and (u_icdot u_j = 0) for all (i eq j). Therefore, the columns of (U) are pairwise orthogonal and each column has norm 1. We say that the columns of (U) are orthonormal. A vector in (mathbb^n) having norm 1 is called a unit vector.

Contoh

The identity matrix is trivially orthogonal. Here are two nontrivial orthogonal matrices: (displaystylefrac<1>>egin 1 & 1 1 & -1 end), (displaystylefrac<1><9>egin -7 & 4 & 4 4 & -1 & 8 4 & 8 & -1 end)


Maximum Principles and Principal Eigenvalues

1 Introduction

It is the main purpose of this paper to study maximum principles for linear second order cooperative elliptic systems under general linear first order cooperative boundary conditions. We are particularly interested in weak settings, in view of applications to nonlinear systems in situations where higher regularity either cannot be expected or does not constitute a convenient frame to deal with such problems.

Maximum principles for cooperative systems have already been discussed by several authors under various assumptions (cf. [20] , [22] , [32] , [36] , [43] , [56] , [60] , [63] , [71] , [77] ). However, in all these references, with the exception of [63] , the case of Dirichlet boundary conditions is studied only. Furthermore, in almost all cases maximum principles in the strong sense are considered, that is, for C 2 functions, or, at least, for W q 2 functions where q is sufficiently large.

It is well-known that maximum principles are of great importance for the study of existence and qualitative properties of nonlinear equations. For example, one of the most useful techniques in the theory of second order scalar elliptic (and parabolic) boundary value problems, the method of sub- and supersolutions, is based on maximum principles (cf. [1] , [62] , [64] , [67] ). This is true for systems as well, as has already been observed in [1 , Sections 5 and 10 ] and has since been worked out by several authors under various hypotheses (cf. [59] , [62] , [66] , and the references therein). However, in all those papers either Dirichlet conditions are considered only or, if Neumann boundary conditions are studied at all, it is assumed that either the boundary conditions decouple, a rather particular situation (e.g., [40] , [41] ), or that very strong regularity conditions are satisfied (e.g., [62] ). It is one of the advantages of our work that our maximum principles allow, among other things, comparison theorems for semilinear problems with nonlinear boundary conditions, the latter depending on all components of the unknown vector function, in a weak setting.

The validity of maximum principles is closely related to the existence of a principal eigenvalue, that is, of a least real eigenvalue determining the position of the smallest closed right half plane containing the spectrum. This eigenvalue plays a predominant rôle in the qualitative study of nonlinear boundary value problems via bifurcation theory and in the method of sub- and supersolutions (cf. [37] , [51] , [53] , [54] , [57] , [58] , and the references therein). Consequently, we investigate in some detail questions of existence and continuous dependence on the data of the principal eigenvalue.

It should be noted that our results on maximum principles in weak settings are new, even in the scalar case. The same is true for our continuity results for the principal eigenvalue, since we allow perturbations of the Robin boundary as well.

To give a flavor of the content of this paper we describe now some of our results in a simple setting. Here we restrict ourselves to a 2 × 2 system with the diagonal Laplace operator as principal part. The general case is studied in the main body of this work.

Throughout this paper Ω is a C 2 domain in ℝ n , di mana n ≥ 1, with a nonempty compact boundary Γ. Kami menunjukkan dengan v: = (v 1 , …, v n ) the outer unit normal on Γ.

However, to illustrate some of the main results by means of prototypical examples, we assume throughout the rest of this introduction that Ω is bounded.

Biarkan awak be a superharmonic distribution in Ω, which means

Then it is known that awak is a regular distribution, in other words: awakL1, loc(Ω). If, moreover, for some point-wise defined representative u ˜ of awak,

kemudian awak ≥ 0, that is, awak(x) ≥ 0 for a.a. x ∈ Ω (e.g., [30 , Propositions II.4.20 and II.4.21]). It is clear that from (1) alone nothing can be said about the boundary behavior of awakL1, loc(Ω) since every test function φ ∈ D ( Ω ) vanishes near Γ. Thus (1) , without the additional information of (2) , does not imply that awak ≥ 0.

The situation is different if we require the validity of the inequalities in (1) for a larger class of test functions and a little more regularity for u. For this, given q ∈ (1, ∞), we put

and γ is the trace operator. We also denote by 〈·, ·〉 the usual Lq duality pairing. Then it is a consequence of our much more general results that the following very weak maximum principle (rather: minimum principle) is valid:

Very weak maximum principles are of importance in nonlinear problems involving low regularity data, for example (e.g., [12] ). The maximum principles studied below are valid for cooperative systems also. To illustrate this we consider the model system ( A , ℬ ) on Ω, defined as follows: we put awak : = (awak 1 , awak 2 ) and assume that there are two decompositions Γ:

such that Γ 0 1 and Γ 0 2 are open, hence closed, submanifolds of Γ. Then we define


7.4: Existence of Eigenvalues - Mathematics

It’s now time to start solving systems of differential equations. We’ve seen that solutions to the system,

where (lambda) and (vec eta )are eigenvalues and eigenvectors of the matrix (A). We will be working with (2 imes 2) systems so this means that we are going to be looking for two solutions, (left( t ight)) and (left( t ight)), where the determinant of the matrix,

We are going to start by looking at the case where our two eigenvalues, (>) and (>) are real and distinct. In other words, they will be real, simple eigenvalues. Recall as well that the eigenvectors for simple eigenvalues are linearly independent. This means that the solutions we get from these will also be linearly independent. If the solutions are linearly independent the matrix (X) must be nonsingular and hence these two solutions will be a fundamental set of solutions. The general solution in this case will then be,

Note that each of our examples will actually be broken into two examples. The first example will be solving the system and the second example will be sketching the phase portrait for the system. Phase portraits are not always taught in a differential equations course and so we’ll strip those out of the solution process so that if you haven’t covered them in your class you can ignore the phase portrait example for the system.

So, the first thing that we need to do is find the eigenvalues for the matrix.

Now let’s find the eigenvectors for each of these.

The eigenvector in this case is,

The eigenvector in this case is,

Then general solution is then,

Now, we need to find the constants. To do this we simply need to apply the initial conditions.

All we need to do now is multiply the constants through and we then get two equations (one for each row) that we can solve for the constants. Ini memberi,

Now, let’s take a look at the phase portrait for the system.

From the last example we know that the eigenvalues and eigenvectors for this system are,

It turns out that this is all the information that we will need to sketch the direction field. We will relate things back to our solution however so that we can see that things are going correctly.

We’ll start by sketching lines that follow the direction of the two eigenvectors. Ini memberi,

Now, from the first example our general solution is

If we have ( = 0) then the solution is an exponential times a vector and all that the exponential does is affect the magnitude of the vector and the constant (c_<1>) will affect both the sign and the magnitude of the vector. In other words, the trajectory in this case will be a straight line that is parallel to the vector, (>). Also notice that as (t) increases the exponential will get smaller and smaller and hence the trajectory will be moving in towards the origin. If ( > 0) the trajectory will be in Quadrant II and if ( < 0) the trajectory will be in Quadrant IV.

So, the line in the graph above marked with (>) will be a sketch of the trajectory corresponding to ( = 0) and this trajectory will approach the origin as (t) increases.

If we now turn things around and look at the solution corresponding to having ( = 0) we will have a trajectory that is parallel to (>). Also, since the exponential will increase as (t) increases and so in this case the trajectory will now move away from the origin as (t) increases. We will denote this with arrows on the lines in the graph above.

Notice that we could have gotten this information without actually going to the solution. All we really need to do is look at the eigenvalues. Eigenvalues that are negative will correspond to solutions that will move towards the origin as (t) increases in a direction that is parallel to its eigenvector. Likewise, eigenvalues that are positive move away from the origin as (t) increases in a direction that will be parallel to its eigenvector.

If both constants are in the solution we will have a combination of these behaviors. For large negative (t)’s the solution will be dominated by the portion that has the negative eigenvalue since in these cases the exponent will be large and positive. Trajectories for large negative (t)’s will be parallel to (>) and moving in the same direction.

Solutions for large positive (t)’s will be dominated by the portion with the positive eigenvalue. Trajectories in this case will be parallel to (>) and moving in the same direction.

In general, it looks like trajectories will start “near” (>), move in towards the origin and then as they get closer to the origin they will start moving towards (>) and then continue up along this vector. Sketching some of these in will give the following phase portrait. Here is a sketch of this with the trajectories corresponding to the eigenvectors marked in blue.

In this case the equilibrium solution (left( <0,0> ight)) is called a saddle point and is unstable. In this case unstable means that solutions move away from it as (t) increases.

So, we’ve solved a system in matrix form, but remember that we started out without the systems in matrix form. Now let’s take a quick look at an example of a system that isn’t in matrix form initially.

We first need to convert this into matrix form. This is easy enough. Here is the matrix form of the system.

This is just the system from the first example and so we’ve already got the solution to this system. Here it is.

Now, since we want the solution to the system not in matrix form let’s go one step farther here. Let’s multiply the constants and exponentials into the vectors and then add up the two vectors.

So, the solution to the system is then,

Let’s work another example.

So, the first thing that we need to do is find the eigenvalues for the matrix.

Now let’s find the eigenvectors for each of these.

The eigenvector in this case is,

The eigenvector in this case is,

Then general solution is then,

Now, we need to find the constants. To do this we simply need to apply the initial conditions.

Now solve the system for the constants.

Now let’s find the phase portrait for this system.

From the last example we know that the eigenvalues and eigenvectors for this system are,

This one is a little different from the first one. However, it starts in the same way. We’ll first sketch the trajectories corresponding to the eigenvectors. Notice as well that both of the eigenvalues are negative and so trajectories for these will move in towards the origin as (t) increases. When we sketch the trajectories we’ll add in arrows to denote the direction they take as (t) increases. Here is the sketch of these trajectories.

Now, here is where the slight difference from the first phase portrait comes up. All of the trajectories will move in towards the origin as (t) increases since both of the eigenvalues are negative. The issue that we need to decide upon is just how they do this. This is actually easier than it might appear to be at first.

The second eigenvalue is larger than the first. For large and positive (t)’s this means that the solution for this eigenvalue will be smaller than the solution for the first eigenvalue. Therefore, as (t) increases the trajectory will move in towards the origin and do so parallel to (>). Likewise, since the second eigenvalue is larger than the first this solution will dominate for large and negative (t)’s. Therefore, as we decrease (t) the trajectory will move away from the origin and do so parallel to (>).

Adding in some trajectories gives the following sketch.

In these cases we call the equilibrium solution (left( <0,0> ight)) a node and it is asymptotically stable. Equilibrium solutions are asymptotically stable if all the trajectories move in towards it as (t) increases.

Note that nodes can also be unstable. In the last example if both of the eigenvalues had been positive all the trajectories would have moved away from the origin and in this case the equilibrium solution would have been unstable.

Before moving on to the next section we need to do one more example. When we first started talking about systems it was mentioned that we can convert a higher order differential equation into a system. We need to do an example like this so we can see how to solve higher order differential equations using systems.

So, we first need to convert this into a system. Here’s the change of variables,

Now we need to find the eigenvalues for the matrix.

Now let’s find the eigenvectors.

The eigenvector in this case is,

The eigenvector in this case is,

Penyelesaian umum adalah,

Apply the initial condition.

This gives the system of equations that we can solve for the constants.

The actual solution to the system is then,

we can see that the solution to the original differential equation is just the top row of the solution to the matrix system. The solution to the original differential equation is then,

Notice that as a check, in this case, the bottom row should be the derivative of the top row.


Department of Mathematics Syllabus

This syllabus is advisory only. For details on a particular instructor's syllabus (including books), consult the instructor's course page. For a list of what courses are being taught each quarter, refer to the Courses page.

MAT 22B: Differential Equations

Introduction and terminology, direction fields, discussion and solution of some ODE

Linear equations integrating factors

Modeling, mechanics Linear versus non-linear equations

Autonomous equations Population dynamics

Numerical approximation Euler’s method

Existence and uniqueness theorem

First order difference equations

Homogeneous 2 nd order equations with constant coefficients

Fundamental solutions, linear independence, Wronskian

Repeated roots Reduction of order

Nonhomogeneous equations Method of undetermined coefficients

Applications to oscillating systems

Laplace Transform, definition

Solution of initial value problems with Laplace Transform

Systems of linear ODE, introduction

Review of related linear algebra

Basic theory of first order linear systems

Homogeneous linear systems with constant coefficients

Nonhomogeneous linear systems

This syllabus is based on 27 50-minute lectures. This usually leaves two lectures for midterms, e.g. midterm one covering the material of Chapters 1 and 2, and midterm two covering the material of Chapters 3 and 6. Alternatively, one can hold one midterm and have a lecture on applications (and/or review) at the end.

There are several interesting options to extend and/or modify this material:


Tonton videonya: Finding Eigen Values and Eigen Vectors on MS Excel (Ogos 2022).