- À paraître
Au-delà de l’enseignement et de la recherche, aucun secteur industriel n’échappe à la modélisation numérique. La résolution de problèmes concrets constitue un véritable enjeu concurrentiel dans tous les domaines, de l’aéronautique à la production d’énergie, de la météorologie aux modèles économiques. C’est dans ce contexte qu’est né cet ouvrage.
Commande avant 16h,
expédié le jour même (lu. - ve.)
Livraison express sous 48h.
Dès l’entrée dans la vie professionnelle, il faut se rendre à l’évidence ; la résolution mathématique exacte des problèmes du monde des sciences disparaît. Les connaissances théoriques acquises doivent alors être mises au service de modélisations visant à offrir des solutions approchées par des méthodes relevant des mathématiques appliquées et des algorithmes numériques. On parle alors d’analyse numérique. Apparue bien avant l’avènement des ordinateurs, elle est aujourd’hui un sujet d’autant plus brûlant qu’émergent le calcul quantique et l’intelligence artificielle.
Au-delà de l’enseignement et de la recherche, aucun secteur industriel n’échappe à la modélisation numérique. La résolution de problèmes concrets constitue un véritable enjeu concurrentiel dans tous les domaines, de l’aéronautique à la production d’énergie, de la météorologie aux modèles économiques. C’est dans ce contexte qu’est né cet ouvrage.
Soutenus par le logiciel Maple, sept chapitres explicitent le sujet spécifique du traitement numérique des fonctions, allant de la résolution des équations non linéaires au calcul intégral, en passant par les interpolations et la dérivation. Les éléments théoriques essentiels sont rappelés et certains d’entre eux sont développés directement avec le logiciel. Chaque grande méthode est illustrée par un exemple dûment développé avec Maple, de manière analytique, puis en recourant aux commandes natives lorsqu’elles existent.
Un huitième chapitre clôture cet ouvrage, avec dix exercices d’application de difficultés diverses. Ceux-ci sont tous corrigés de manière détaillée dans un cahier de travail Maple, accessible en ligne sur le site de l’éditeur à la fiche de l’ouvrage.
Référence : | 2150 |
Nombre de pages : | 192 |
Format : | 16x24 cm |
Reliure : | Broché |
Rôle | |
---|---|
Imokrane Jean-François | Auteur |
Avant-propos
1 Analyse d'erreurs
1.1 Un soupçon de théorie
1.1.1 Les erreurs et chiffres significatifs
1.1.1.1 Les erreurs absolues et relatives
1.1.1.2 Les chiffres significatifs
1.1.2 Les troncatures et arrondis
1.1.3 La propagation des erreurs
1.1.4 Le conditionnement et la stabilité
1.1.4.1 Le conditionnement
1.1.4.2 La stabilité
1.1.5 Synthèse
1.2 En pratique
1.2.1 Maple et les arrondis
1.2.1.1 Les chiffres significatifs
1.2.1.2 La troncature
1.2.2 La gestion des erreurs
1.2.2.1 L'aire d'un triangle en épingle
1.2.2.2 L'évaluation d'une fonction
1.2.2.3 L'étude d'une troncature
1.2.3 Un arrondi pour une catastrophe
1.3 Conclusion
2 Équations non linéaires
2.1 Les cours du lycée
2.2 Méthodes itératives et ordres de convergence
2.3 Initialisation
2.4 Les méthodes d'encadrement
2.4.1 La méthode de dichotomie
2.4.1.1 La méthode illustrée
2.4.1.2 Les données numériques des itérations
2.4.1.3 La convergence
2.4.2 La méthode de la fausse position
2.4.2.1 La méthode illustrée
2.4.2.2 Les données numériques des itérations
2.4.3 Les convergences comparées
2.5 Les méthodes de point fixe
2.5.1 Le cas général
2.5.1.1 L'accélération de convergence
2.5.1.2 Les fonctions β(x) et méthodes associées
2.5.2 La méthode de Newton-Raphson
2.5.2.1 La méthode illustrée
2.5.2.2 Les données numériques des itérations
2.5.2.3 La convergence
2.5.2.4 La méthode de Newton Raphson modifiée
2.5.3 La méthode de la sécante
2.6 Le cas des fonctions holomorphes
2.7 Les équations algébriques
2.7.1 L'évaluation des fonctions polynomiales
2.7.2 La séparation des racines
2.7.2.1 La règle des signes de Descartes
2.7.2.2 La majoration de Cauchy
2.7.2.3 Les suites de Sturm
2.7.3 À propos de conditionnement
2.7.4 La matrice compagnon
2.8 Autres méthodes de recherche de zéros
2.9 Les commandes natives
2.10 La commande showstat
3 Interpolations
3.1 La méthode des coefficients indéterminés
3.2 L'interpolation de Lagrange
3.3 L'interpolation de Newton
3.4 L'interpolation de fonction
3.4.1 Le choix des nœuds d'interpolation
3.4.2 Le nombre de nœuds d'interpolation
3.5 L'interpolation Spline
3.5.1 La Spline linéaire
3.5.2 La Spline cubique
3.6 Les courbes de Bézier
3.6.1 Définition et animation
3.6.2 La Spline cubique et la cubique de Bézier
4 Approximations de fonctions
4.1 Les normes d'approximation
4.1.1 La norme euclidienne
4.1.2 La norme infinie
4.2 Initialisation
4.3 Les approximations pour la norme
4.3.1 L'approximation de Taylor
4.3.2 Une meilleure approximation
4.3.2.1 Via la base canonique
4.3.2.2 Via une base de polynômes orthogonaux
4.4 Les approximations pour la norme infinie
4.4.1 L'évaluation des normes infinies pour P1 et P2
4.4.2 Les séries de Tchebychev
4.4.2.1 Le calcul détaillé
4.4.2.2 La commande native
4.4.3 Les approximants de Padé
4.4.3.1 Définition et méthode
4.4.3.2 Le calcul détaillé
4.4.3.3 La commande native
4.4.3.4 Le calcul de la norme infinie
4.4.4 Les approximants de Padé-Tchebychev
4.4.5 L'approximation minimax
4.4.6 Synthèse des approximations en norme infinie
4.4.6.1 Ordonnancement des approximants
4.4.6.2 Représentations locales des approximants
4.4.6.3 Visualisation d'écarts d'approximations
4.4.7 La gestion de la propagation des erreurs
5 Approximations discrètes
5.1 Régression : pourquoi, comment ?
5.1.1 Régression versus interpolation
5.1.2 La méthode des moindres carrés
5.2 La régression linéaire simple
5.2.1 Le calcul détaillé
5.2.2 Les commandes natives
5.3 La régression linéaire généralisée
5.3.1 Le traitement théorique
5.3.2 Vitesse et distance de freinage
5.4 Les régressions non linéaires
5.4.1 Quelques modèles à linéarisation facile
5.4.2 Les éléphants du parc Kruger
5.4.2.1 La description des données
5.4.2.2 L'étude par linéarisation du modèle
5.4.2.3 L'étude par commande native
5.4.2.4 L'étude par les dérivées partielles
5.4.2.5 L'étude comparative des résultats
6 Dérivation numérique
6.1 La méthode des différences finies
6.1.1 L'approche théorique
6.1.2 La méthode illustrée
6.1.3 Les schémas à (n+1) points
6.1.3.1 1er cas : nœuds équirépartis
6.1.3.2 2ème cas : nœuds non équirépartis
6.1.3.3 La méthode illustrée
6.2 L'extrapolation de Richardson
6.2.1 Le principe de base
6.2.2 La méthode illustrée
6.2.3 La généralisation de la méthode
7 Intégration numérique
7.1 Les principes généraux
7.2 Les méthodes élémentaires
7.2.1 Les formules des rectangles
7.2.2 Les évaluations d'erreurs
7.3 Les méthodes de Newton-Cotes
7.3.1 Les méthodes simples
7.3.1.1 La formule des trapèzes
7.3.1.2 La formule de Simpson
7.3.2 Les méthodes composites
7.3.2.1 La command native
7.3.2.2 Les évaluations d'erreurs
7.3.3 La fabrication d'une toiture ondulée
7.4 La méthode de Gauss-Legendre
7.4.1 Étude sur l'intervalle [-1,1]
7.4.2 Généralisation sur [a,b]
7.4.3 La méthode illustrée
7.4.3.1 La formule de Simpson
7.4.3.2 La formule de Gauss-Legendre
7.5 Les méthodes adaptatives
7.5.1 L'approche théorique
7.5.2 La méthode illustrée
7.6 Les intégrales singulières
7.6.1 Les singularités à gauche ou à droite
7.6.2 Les intégrales impropres
7.6.3 La méthode illustrée
7.7 Les intégrales doubles
7.7.1 L'approche théorique
7.7.2 La méthode illustrée
7.7.2.1 L'identification des poids
7.7.2.2 Une approximation de l'intégrale double
8 Pour s'entraîner
Exercice no 1 - Une approximation de π
Exercice no 2 - Une vitesse de convergence
Exercice no 3 - Le niveau d'eau d'un bassin
Exercice no 4 - La recherche d'un zéro
Exercice no 5 - L'espérance de vie
Exercice no 6 - Un excès de vitesse
Exercice no 7 - L'interpolation d'un profil
Exercice no 8 - Des oiseaux des îles méditéranéennes
Exercice no 9 - Le skieur
Exercice no 10 - Le pendule simple
Bibliographie
Index
Livres de l'auteur Jean-François Imokrane