El trabajo social es una ciencia que busca atender y mejorar la calidad de vida de las personas y comunidades, atendiendo problemáticas como la pobreza, la violencia, la salud mental y la educación. A través de su labor, los trabajadores sociales promueven el bienestar y la justicia social.
