Definición de Cáncer


Cáncer:

Crecimiento anormal de un tejido celular, capaz de invadir otros órganos a nivel local o a distancia (metástasis).

diccionario médico

Volver al buscador médico



Previsora Bilbaína Seguros