Versa sobre o gerenciamento dos riscos de ferramentas de Inteligência Artificial utilizadas como apoio à prestação jurisdicional nos tribunais brasileiros, que objetiva encontrar uma estrutura eficaz para o tratamento dos eventos adversos que vierem a ocorrer, à luz do princípio da precaução, de modo que o conhecimento sobre falhas verificadas ajude a evitar incidentes futuros, preservando os direitos fundamentais dos jurisdicionados. Mediante pesquisa bibliográfica e documental em diversas áreas do conhecimento, elaborou-se uma visão holística do ciclo de desenvolvimento da tecnologia, acrescentando contexto histórico-cronológico dos avanços científicos, para proceder à descrição e análise crítica de diretrizes éticas internacionais sobre Inteligência Artificial; da estrutura regulatória brasileira; dos riscos relacionados a ataques cibernéticos, discriminação algorítmica, falta de transparência e controle do usuário; do panorama de aplicação da tecnologia nos tribunais; das formas disponíveis para controle; até chegar na última etapa do ciclo de gerenciamento de riscos, quanto ao tratamento dos erros e consequências negativas. Os principais resultados obtidos foram dois parâmetros de bancos de dados para registro e armazenamento dos eventos adversos, MAUDE/MedWatch e AI Incident Database. A conclusão é que tais parâmetros podem ser adaptados em laboratório de inovação para o aprimoramento do controle da Inteligência Artificial usada pelo Poder Judiciário brasileiro, em sua transformação digital e inovação responsável.