mercredi 2 janvier 2013

Défintion


L'anatomie (provenant du nom grec ἀνατομία anatomia, 
provenant du verbeἀνατέμνειν anatemnein, se traduisant 
par couper, découper) est une science descriptive 
étudiant la structure interne, la topographie et le rapport 
des organes entre eux.
Le terme désigne à la fois la structure d'un organisme 
vivant et la branche de labiologie ou de la médecine, 
pour l'anatomie humaine, qui étudie cette structure. On 
parle également d'anatomie pour désigner les anatomies 
publiques, événements sociaux des Temps modernes et 
du début de l'Époque contemporaine durant lequel un 
maître exposait en public son savoir anatomique.




Aucun commentaire:

Enregistrer un commentaire