- Categories:
Direito do trabalho é o conjunto de normas jurídicas que regem as relações entre empregados e empregadores, são os direitos resultantes da condição jurídica dos trabalhadores.
Estas normas, no Brasil, estão regidas pela Consolidação das Leis do Trabalho (CLT), Constituição Federal de 1988 e várias leis esparsas.
Surge como autêntica expressão do humanismo jurídico e instrumento de renovação social. Constitui atitude de intervenção jurídica em busca de um melhor relacionamento entre o homem que trabalha e aqueles para os quais o trabalho se destina.
Visa também a estabelecer uma plataforma de direitos básicos. Portanto, a definição de Direito do Trabalho é o conjunto de normas e princípios que regulamentam o relacionamento entre empregado e empregadores.