Défintion
L'anatomie (provenant du nom grec ἀνατομία anatomia,
provenant du verbeἀνατέμνειν anatemnein, se traduisant
par couper, découper) est une science descriptive
étudiant la structure interne, la topographie et le rapport
des organes entre eux.
Le terme désigne à la fois la structure d'un organisme
vivant et la branche de labiologie ou de la médecine,
pour l'anatomie humaine, qui étudie cette structure. On
parle également d'anatomie pour désigner les anatomies
publiques, événements sociaux des Temps modernes et
du début de l'Époque contemporaine durant lequel un
maître exposait en public son savoir anatomique.
Aucun commentaire:
Enregistrer un commentaire