Matematică, întrebare adresată de daniladaniel2001, 8 ani în urmă

Demonstrați ca (a^2+1)x^2-2x+1=0 nu admite rădăcini reale,oricare ar fi a € R*.

Răspunsuri la întrebare

Răspuns de Utilizator anonim
1

Explicație pas cu pas:

x1 =  \frac{ - b +   \sqrt{b {}^{2} - 4ac } }{2a} \\ x2 =  \frac{ - b  -    \sqrt{b {}^{2} - 4ac } }{2a}

x1=  \frac{ - 2 +  \sqrt{4 - 4(a {}^{2} }   + 1)}{2(a {}^{2} + 1) }  =  \\ \frac{ - 2 +  2a  }{2(a {}^{2} + 1) }  = \frac{2(a - 1)}{2(a {}^{2}  + 1)}  =  \frac{a - 1}{a {}^{2}  + 1}

x2 =   - \frac{ a + 1}{a {}^{2}  + 1}


lucasela: (a²+1)x²-2x+1=0
Δ=4-4a²-4= -4a²<0, deci, ecuatia nu admite rădăcini reale,oricare ar fi a apartine R*.
Alte întrebări interesante