Provas de Doutoramento em Engenharia Informática: ”Aiding researchers making their computational experiments reproducible”

Candidato:
Lázaro Gabriel Barros da Costa

Data, Hora e Local:
18 de julho de 2025, 16:00, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor Pedro Nuno Ferreira da Rosa da Cruz Diniz, Professor Catedrático do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Vogais:
Doctor Tanu Malik, Associate Professor in the Department of Electrical Engineering and Computer Science at the University of Missouri, U.S.A;
Doutor Miguel Carlos Pacheco Afonso Goulão, Professor Associado do Departamento de Informática da Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa;
Doutor Gabriel de Sousa Torcato David, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto;
Doutor Jácome Miguel Costa da Cunha, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto (Orientador).

A tese foi coorientada pela Doutora Susana Alexandra Tavares Meneses Barbosa, Investigadora Sénior do INESCTEC Porto.

Resumo:

A reprodutibilidade e a replicabilidade científica são pilares essenciais de uma investigação credível, especialmente à medida que os experiências computacionais se tornam cada vez mais prevalentes em diversas disciplinas científicas, como a química, a ciência do clima e a biologia. Apesar da forte defesa da Ciência Aberta e da adesão aos princípios FAIR (Findable, Accessible, Interoperable e Reusable — Localizável, Acessível, Interoperável e Reutilizável), alcançar uma verdadeira reprodutibilidade continua a ser um desafio considerável para muitos investigadores. Questões fundamentais como a gestão complexa de dependências, metadados inadequados e o acesso frequentemente moroso ao código e dados necessários comprometem seriamente os esforços de reprodutibilidade. Além disso, as ferramentas atualmente disponíveis oferecem frequentemente soluções fragmentadas que não conseguem responder às necessidades multifacetadas de configurações experimentais diversas e complexas, particularmente aquelas que envolvem múltiplas linguagens de programação e sistemas de dados intricados.
Esta tese aborda estes desafios através da apresentação de uma ferramenta abrangente concebida para melhorar a reprodutibilidade computacional em várias áreas científicas. A nossa abordagem
incluiu uma revisão sistemática detalhada das ferramentas existentes de reprodutibilidade com o objetivo de identificar lacunas e limitações prevalecentes ao nível do design e funcionalidade.
Esta revisão evidenciou a natureza fragmentada dessas ferramentas, cada uma suportando apenas aspetos do processo de reprodutibilidade, sem fornecer uma solução holística, em particular
para experiências que exigem uma gestão de dados robusta ou suporte a múltiplas linguagens de programação.
Para colmatar estas lacunas, introduzimos o SCIREP, uma ferramenta inovadora que automatiza aspetos essenciais do fluxo de trabalho da reprodutibilidade, como a gestão de dependências, containerização e compatibilidade entre plataformas. Esta ferramenta foi rigorosamente avaliada utilizando um conjunto curado de experiências computacionais, alcançando uma taxa de sucesso
de reprodutibilidade de 94%. Com o objetivo de aumentar a acessibilidade e a usabilidade da investigação reprodutível, desenvolvemos o SCICONV, uma interface conversacional que simplifica a configuração e execução de experiências computacionais, utilizando processamento de linguagem natural. Esta interface reduz significativamente as barreiras técnicas tradicionalmente associadas à configuração de estudos reprodutíveis, permitindo que os investigadores interajam com o sistema através de conversas simples e orientadas. Os resultados da avaliação indicaram que o SCICONV conseguiu reproduzir 83% das experiências do nosso conjunto de dados curado com a mínima interação do utilizador, demonstrando o seu potencial para tornar a investigação reprodutível mais acessível a uma gama mais ampla de investigadores.
Adicionalmente, reconhecendo o papel fundamental dos estudos com utilizadores na avaliação de ferramentas, metodologias e protótipos — particularmente nas áreas da engenharia de software e das ciências comportamentais—esta tese estende-se também ao domínio da avaliação experimental de ferramentas. Conduzimos uma análise aprofundada das ferramentas existentes utilizadas em experiencias nas áreas mencionadas, identificando e propondo funcionalidades especificas destinadas a melhorar a sua utilidade e facilidade de uso na condução de estudos com utilizadores. Estas funcionalidades foram validadas através de um inquérito a comunidade cientifica, confirmando a sua relevância e a necessidade da sua integração em ferramentas atuais e futuras. As contribuições desta tese são múltiplas, abrangendo o desenvolvimento de uma classificação para ferramentas de reprodutibilidade, a criação de um conjunto de dados de referencia padronizado para avaliação da eficácia das ferramentas, e a formulação das ferramentas SCIREP e SCICONV para um avanço significativo do estado da arte em reprodutibilidade computacional. No futuro, a investigação ira centrar-se na expansão das capacidades destas ferramentas para suportar fluxos de trabalho científicos mais complexos, melhorar as interfaces de utilizador e integrar funcionalidades adicionais que suportem os estudos com utilizadores. Ao faze-lo, este trabalho visa abrir caminho para um ecossistema de reprodutibilidade computacional mais robusto, acessível e eficiente, capaz de responder as necessidades em constante evolução da comunidade cientifica global.

Palavras-chave: Reprodutibilidade; Replicabilidade; Reutilização; Experiências computacionais; Interface de utilizador conversacional; Estudos de utilizadores.

Provas de Doutoramento em Media Digitais: ”Mapping Multi-Meter Rhythm in the DFT: Towards a Rhythmic Affinity Space”

Candidato:
Diogo Miguel Filipe Cocharro

Data, Hora e Local:
22 de julho de 2025, 15:00, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor António Fernando Vasconcelos Cunha Castro Coelho, Professor Associado com Agregação do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto

Vogais:
Doutor Matt Chiu, Assistant Professor of Music Theory at the Conservatory of Performing Arts at the Baldwin Wallace University, EUA;
Doutor Daniel Gómez-Marín, Profesor del Departamento de Diseño e Innovación de la Escuela de Tecnología, Diseño e Innovación de la Facultad Barberi de Ingeniería, Diseño y Ciencias Aplicadas de la Universidad Icesi, Colombia;
Doutora Sofia Carmen Faria Maia Cavaco, Professora Auxiliar do Departamento de Informática da Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa;
Doutor Sérgio Reis Cunha, Professor Auxiliar do Departamento de Engenharia Eletrotécnica e de Computadores da Faculdade de Engenharia da Universidade do Porto;
Doutor Gilberto Bernardes de Almeida, Professor Auxiliar do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto (Orientador).

A tese foi coorientada pelo Doutor Rui Luis Nogueira Penha, Professor Coordenador da Escola Superior de Música e das Artes do Espetáculo.

Resumo:

A música é inerentemente uma manifestação temporal, e o ritmo é um componente crucial dela. Enquanto o ritmo pode existir sem melodia ou harmonia, estas últimas não podem existir sem o ritmo. No entanto, o ritmo é uma disciplina frequentemente menos estudada em comparação com a harmonia. A afinidade rítmica é um conceito musical que descreve a relação natural e agradável entre dois ou mais padrões rítmicos. Trata-se de quando esses padrões, mesmo que complexos ou aparentemente díspares, criam uma sensação de coesão e fluidez em vez de dissonância ou conflito. Esta afinidade pode surgir de vários fatores, como motivos rítmicos partilhados, estruturas rítmicas complementares ou um pulso subjacente forte que unifica as diferentes camadas. Estudiosos da música começaram recentemente a investigar estes fenómenos, particularmente o trabalho seminal de Harald Krebs sobre Dissonância Rítmica, que contribuiu com um quadro abrangente para compreender e categorizar a dissonância métrica na música, ou o trabalho de Godfried T. Toussaint, que discute vários métodos para medir a similaridade rítmica, oferecendo perspectivas sobre as inter-relações estruturais entre diferentes ritmos. Um estudo recente investigou o comportamento de métricas típicas de similaridade rítmica em diferentes géneros. As principais conclusões revelaram que a similaridade varia dentro de um intervalo limitado entre géneros e instrumentos. Esta análise sistemática abriu a discussão e pesquisa sobre o conceito de compatibilidade rítmica, enfatizando a necessidade de compreendê-la como um conceito distinto da similaridade rítmica. Conjuntamente, isso proporcionou condições para estudos subsequentes e abriu novas perspetivas para reunir conceitos relacionados à afinidade rítmica. O espaço da Transformada Discreta de Fourier (DFT) tem sido amplamente aplicado na harmonia para criar espaços de altura, mostrando grande potencial para mapear todos os tipos de configurações de alturas correspondentes às perceções humanas de alturas, acordes e tonalidades, bem como aos princípios da teoria musical como distâncias. A sua aplicação no ritmo tem sido geralmente limitada somente a padrões rítmicos ou dentro do contexto de uma peça musical, não como um espaço rítmico multimétrico que abrangente a todo o espectro de ritmos. Este estudo investiga o potencial da DFT como um espaço rítmico multimétrico para explorar afinidades rítmicas, focando especificamente na categoria de dissonância de agrupamento. Este fenómeno relaciona-se com práticas frequentemente encontradas na composição musical, como poli-metria, poli-ritmos, hemiolas e quiálteras, que permitem a sobreposição de padrões rítmicos que, em princípio, apresentam baixa similaridade entre si, mas que são percecionados como agradáveis enquanto dissonância combinada. O exemplo mais conhecido é o de três contra dois. O objetivo principal é analisar e criar padrões rítmicos examinando similaridade e dissonância no espaço. A nossa abordagem centra-se em estratégias para representar ritmos no domínio do tempo e as suas implicações no domínio da frequência. Constatámos que cada método tem capacidades distintas para captar similaridade e dissonância, podendo ser usado para diversos propósitos musicais.

Provas de Doutoramento em Media Digitais: “Integration of models for linked data in cultural heritage and contributions to the FAIR principles”

Candidata:
Inês Dias Koch

Data, Hora e Local:
1 de julho de 2025, 14:30, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Título:
“Integration of models for linked data in cultural heritage and contributions to the FAIR principles”

Presidente do Júri:
Doutor João Carlos Pascoal Faria, Professor Catedrático do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Vogais:
Doutora Maja Žumer, Professora Catedrática, Department of Library and Information Science of the University of Ljubljana, Slovenia;

Doutora María Poveda Villalón, Professora Associada, Departament of Artificial Intelligence of the Technical University of Madrid, Spain;

Doutor José Luís Brinquete Borbinha, Professor Catedrático, Departamento de Informática do Instituto Superior Técnico da Universidade de Lisboa;

Doutor Pedro Manuel Rangel Santos Henriques, Professor Catedrático, Departamento de Informática da Escola de Engenharia da Universidade do Minho;

Doutora Carla Alexandra Teixeira Lopes, Professora Associada, Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto (Orientadora);

Doutora Mariana Curado Malta, Professora Auxiliar, Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

A tese foi Coorientada pela Doutora Maria Cristina de Carvalho Alves Ribeiro, Professora Associada Aposentada do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

As diversas áreas do Património Cultural, como os arquivos, os museus e as bibliotecas, têm investido no desenvolvimento tecnológico e na inovação para disponibilizar os seus recursos aos utilizadores de forma mais eficiente e completa. Para tal, a descrição destes recursos é essencial para que sejam explicitados em termos do seu contexto e conteúdo, bem como para facilitar a sua inteligibilidade e acessibilidade. Neste sentido, cada área do património começou a desenvolver os seus próprios modelos e normas para descrever os objetos culturais com que lida. Isto fez com que estas normas se tornassem específicas de cada domínio e pudessem apenas atender às necessidades de informação dentro da área de conhecimento em que foram desenvolvidos, explorando apenas a informação descrita dentro do seu domínio. Como resultado, ligar recursos de diferentes fontes de informação é desafiante. Com a necessidade de tornar os padrões e modelos mais interoperáveis, surgiram modelos de dados ligados no Património Cultural. Estes modelos permitem ligar os vários conceitos das diferentes áreas do património de forma eficiente e eficaz, considerando as características da Web Semântica.
Em Portugal, o Arquivo Nacional sentiu a necessidade de desenvolver um modelo de dados interligados para descrever os seus objetos culturais, o que levou à criação do Projeto EPISA, projeto do qual surgiu esta investigação. Assim, este trabalho tem como objetivo desenvolver um modelo de dados ligados para descrever os registos de arquivo, bem como conectá-los a outros domínios do património cultural. Para além disso, pretende integrar o modelo desenvolvido com os modelos de dados ligados existentes, promovendo o acesso e a reutilização de dados de instituições patrimoniais com base na descrição especializada. Além disso, visa ligar os modelos de dados existentes a dados de outras fontes disponíveis na Web, como a Wikidata e a DBpedi.Realizamos um estudo que inclui modelos de dados existentes no Património Cultural, como o CIDOC CRM em museus, o RiC-CM em arquivos e o LRMoo em bibliotecas, juntamente com modelos que surgiram em projetos Web, como o DBpedia e o Wikidata. Ao descrever objetos de arquivo, bem como ao criar e explorar relações entre outros modelos de dados, este estudo identifica características e princípios comuns, bem como os aspetos distintivos de cada área. Além disso, identifica a possibilidade de ligar elementos dos vários modelos, garantindo que os modelos podem ser adaptados às aplicações sem perder a riqueza da conceptualização realizada em cada um dos domínios. Num contexto em que a Web promove a explicitação da semântica dos dados através da Web Semântica e disponibiliza ferramentas para a sua representação, é necessário, por um lado, criar ligações entre modelos de diferentes comunidades e, por outro, ajustar a complexidade de cada modelo para cada aplicação de acordo com as suas necessidades específicas. Os Princípios FAIR (Findable, Accessible, Interoperable, Reusable) foram, portanto, utilizados como uma das fontes para os requisitos que os dados e metadados devem cumprir para terem uma estrutura modular. Reunimos uma coleção de casos de utilização ligados a utilizadores de arquivos, incluindo perfis que vão desde gestores de coleções a promotores de património e utilizadores informais. Além disso, compilámos e avaliámos um conjunto de experiências de modelação de dados utilizando diferentes modelos. Deste trabalho resultou o ArchOnto, uma ontologia modular que descreve registos de arquivo. Foi desenvolvido considerando os padrões arquivísticos existentes e validado por especialistas na área,
nomeadamente arquivistas do Arquivo Nacional Português. O ArchOnto baseia-se no CIDOC CRM, combinado com outras quatro ontologias específicas também desenvolvidas neste trabalho. O desenvolvimento do ArchOnto levou à criação de uma plataforma protótipo concebida para explorar e manipular registos de arquivo. Além disso, oferece o potencial de aplicar esta ontologia a outros domínios, especificamente à representação de registos cinematográficos.

Palavras Chave: Património Cultural; Dados Abertos Ligados; Integração de dados; Web Semântica; Princípios FAIR; Humanidades Digitais.

Provas de Doutoramento em Engenharia Informática: ”Towards Continuous Certification of Software Systems for Aerospace”

Candidato:
José Eduardo Ferreira Ribeiro

Data, Hora e Local:
30 de junho de 2025, às 14h30, na Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Título:
”Towards Continuous Certification of Software Systems for Aerospace”

Presidente do Júri:

Doutor Rui Filipe Lima Maranhão de Abreu, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto

Vogais:

Doutor Miguel Mira da Silva, Professor Catedrático, Departamento de Engenharia Informática, Instituto Superior Técnico da Universidade de Lisboa;

Doutor João Miguel Lobo Fernandes, Professor Catedrático, Departamento de Informática, Escola de Engenharia da Universidade do Minho;

Doutor João Carlos Pascoal Faria, Professor Catedrático, Departamento de Engenharia Informática , Faculdade de Engenharia da Universidade do Porto;

Doutor João Gabriel Monteiro de Carvalho e Silva, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Ciências e Tecnologia da Universidade de Coimbra (Coorientador).

A tese foi orientada pelo Doutor Ademar Manuel Teixeira de Aguiar, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

Desde a publicação do Manifesto Ágil em 2001, os métodos Ágeis evoluíram para se tornarem a abordagem dominante no desenvolvimento de software em diversos domínios. No entanto, a sua adoção no desenvolvimento de sistemas críticos, como na indústria aeroespacial, permanece limitada por razões habitualmente atribuídas aos rigorosos requisitos regulatórios de safety impostos por normas específicas do domínio. Esta dissertação explora a aplicabilidade dos métodos Ágeis no contexto do desenvolvimento de software aeroespacial crítico, especificamente sob as diretrizes da norma DO-178C, e conclui que, ao contrário dessa perceção generalizada, os métodos Ágeis também podem ser usados com vantagem neste contexto. A norma DO-178C, intitulada Software Considerations in Airborne Systems and Equipment Certification, é a principal norma de certificação para software aeronáutico por parte de agências como a Federal Aviation Administration (FAA) e a European Union Aviation Safety Agency (EASA).

Uma observação recurrente durante discussões com profissionais de diferentes organizações e indústrias com fortes requisitos de safety, incluindo espaço, aeroespacial, ferroviária, automóvel, energia e defesa, é a perceção generalizada de que métodos tradicionais como o modelo Waterfall são indispensáveis, se não mesmo obrigatórios, para garantir conformidade e obter a certificação. Esta perceção resulta da exigência de evidências rigorosas relacionadas com safety necessárias para a certificação. No desenvolvimento de software aeroespacial, a adoção mínima de métodos e práticas Ágeis é atribuída às exigências da DO-178C, considerada uma norma restritiva. Contudo, contrariamente a esta crença, a DO-178C não exige nenhum método de desenvolvimento específico, mas fornece diretrizes e objetivos para alcançar as evidências de safety necessárias. Esta flexibilidade abre a possibilidade de adaptar métodos Ágeis para cumprir os requisitos de certificação, mantendo as suas bem-documentadas vantagens, como a entrega incremental e a adaptabilidade a alterações nos requisitos.

Esta pesquisa examina se os métodos Ágeis, particularmente a Scrum framework, podem ser efetivamente integrados no desenvolvimento de sistemas de software aeroespacial críticos, mantendo a total conformidade com o DO-178C. O estudo apresenta o Scrum4DO178C, um processo ágil inovador baseado no Scrum, construído para abordar os desafios específicos do desenvolvimento de software aeroespacial, incluindo os extensos esforços de verificação e validação (V&V) necessários neste contexto. Através de uma revisão abrangente da literatura, das práticas da indústria e de dados, bem como de insights do mundo real provenientes de um caso de estudo industrial envolvendo um projeto aeroespacial crítico (Nível de Software A – Catastrófico), a pesquisa avalia a viabilidade e os benefícios desta abordagem. O caso de estudo demonstra que o Scrum4DO178C melhora o desempenho do projeto, aumenta a capacidade de resposta a mudanças nos requisitos e reduz os esforços de V&V, em comparação com Waterfall, ao mesmo tempo que cumpre os requisitos do DO-178C.
Estes resultados desafiam a noção prevalecente de que os métodos Ágeis são inerentemente incompatíveis com domínios críticos e mostram que, quando adaptados de forma ponderada, os métodos Ágeis podem satisfazer os rigorosos requisitos de normas como o DO-178C. Ao resolver as dificuldades existentes no uso de métodos e práticas Ágeis no desenvolvimento de sistemas críticos, este trabalho defende uma mudança de paradigma no desenvolvimento de software crítico, promovendo uma abordagem mais adaptável e centrada no cliente. Especificamente, a pesquisa destaca a capacidade do Ágil de acelerar a aquisição de conhecimento através de ciclos de entrega e de feedback mais curtos, e de melhorar a rastreabilidade e gerir alterações tardias nos requisitos de forma mais eficiente, também no domínio aeroespacial.

Partindo deste trabalho base estão em curso outras linhas de investigação para aprimorar o processo Scrum4DO178C através da automação, possibilitando a geração e reutilização dos outputs necessários para a conformidade com o DO-178C. Além disso, pesquisas futuras irão expandir estes conceitos para outras normas aeroespaciais e domínios críticos, garantindo a sua aplicabilidade e conformidade em diferentes frameworks regulatórias. Apoiada por iniciativas colaborativas com universidades (projetos de dissertação de mestrado na Faculdade de Engenharia da Universidade do Porto (FEUP) e no Departamento de Engenharia Informática da Universidade de Coimbra (UC)) e parceiros da indústria, esta pesquisa visa reformular as perceções da indústria sobre o papel dos métodos Ágeis em sistemas críticos, promovendo a inovação e adaptabilidade nestes ambientes complexos.

Palavras chave: Agile; Aerospace; DO-178C; FAA; Safety-critical; Software development.

Provas de Doutoramento em Engenharia Informática: ”An Optimization Strategy for Resource Allocation in Cyber Physical Production Systems”

Candidato:
Eliseu Moura Pereira

Data, Hora e Local:
17 de junho de 2025, 10:00, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor Carlos Miguel Ferraz Baquero-Moreno, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto

Vogais:
Doutor Pedro Nicolau Faria da Fonseca, Professor Auxiliar, Departamento de Eletrónica, Telecomunicações e Informática, Universidade de Aveiro;
Doutor Paulo Jorge Pinto Leitão, Professor Coordenador Principal, Departamento de Eletrotecnia, Escola Superior de Tecnologia e Gestão, Instituto Politécnico de Bragança;
Doutor André Monteiro de Oliveira Restivo, Professor Associado, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto;
Doutor Gil Manuel Magalhães de Andrade Gonçalves, Professor Associado com Agregação, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto (Orientador).

A tese foi coorientada pelo Doutor João Pedro Correia dos Reis, Investigador Auxiliar do Departamento de Engenharia Eletrotécnica e de Computadores.

Resumo:

Os Sistemas de Produção Ciberfísicos (CPPSs) integram tecnologias de computação, comunicação e controlo, proporcionando a flexibilidade necessária para a reconfiguração dinâmica do chão de fábrica e para a manufatura eficiente. Uma fábrica com maior flexibilidade de chão de fábrica tem a vantagem de uma maior personalização ou manufatura de novos produtos, quando comparada com as indústrias tradicionais. Esta vantagem é relevante principalmente quando a indústria introduz um novo produto ou porque o chão de fábrica produz produtos altamente variáveis que necessitam de uma reconfiguração constante. Hoje em dia, vários fabricantes adotam esta filosofia de produção, como é o caso da indústria automóvel, onde uma grande variabilidade de modelos e especificações de automóveis exigem diferentes ajustes/configurações do chão de fábrica para os fabricar. Em linhas de produção sequenciais, como as linhas de montagem de automóveis, os CPPS reconfiguráveis desempenham um papel essencial porque o processamento de um produto pode afetar todo o desempenho da produção, exigindo a reconfiguração do chão de fábrica para otimizar a sua execução. Um desafio significativo nos CPPSs surge quando as condições mudam, como novos produtos ou requisitos, que exigem reconfiguração. Os sistemas atuais frequentemente dependem de intervenção manual, o que leva a atrasos significativos, especialmente em grandes indústrias, onde a reprogramação de centenas de máquinas pode demorar dias ou semanas. Esta tese aborda esse problema propondo uma plataforma que otimiza automaticamente a atribuição de software aos recursos existentes, acelerando o desenvolvimento, execução e reconfiguração, permitindo que os CPPSs se adaptem rapidamente a perturbações externas.

Com o objetivo de acelerar o desenvolvimento, a reconfiguração e a execução de software em CPPSs, esta tese visa otimizar a atribuição de Function Blocks (FBs) aos dispositivos existentes num Sistema Ciberfísico (CPS) baseado no IEC 61499, reduzindo o tempo total de execução. Com este objetivo principal, a tese resultou no desenvolvimento de 3 ferramentas: 1) o Dynamic Intelligent Architecture for Software and Modular Reconfiguration (DINASORE), que permite o desenvolvimento, execução e reconfiguração manual de CPSs baseados no IEC 61499, 2 ) o Task Resources Estimator and Allocation Optimizer (TREAO), que simula e otimiza a atribuição de tarefas/FBs aos dispositivos, recomendando layouts de software adequados às características do CPS, e 3) o Task Assignment Optimization and Synchronization Engine (T-Sync), que integra as duas ferramentas anteriores numa solução, que otimiza de forma online a atribuição de FBs aos dispositivos existentes num CPS baseado no IEC 61499.

A integração das ferramentas no T-Sync resultou numa solução diferenciadora porque 1) permite a atribuição de FBs online para otimizar continuadamente a execução do CPS e 2) melhora a transparência e interoperabilidade entre FBs nos dispositivos baseados no IEC 61499. Com esta solução, o desempenho da execução de FBs em CPSs reconfiguráveis melhorou em 30% em ambiente simulado e 61% em um CPS. Para além do T-Sync melhorar o tempo total de execução, o DINASORE melhora a eficiência e a flexibilidade da reconfiguração, enquanto o TREAO facilita o desenvolvimento de CPSs ao otimizar a atribuição de tarefas e FBs aos recursos disponíveis. Além das ferramentas mencionadas, durante esta tese, outros algoritmos foram implementados e testados para otimização da atribuição de tarefas, e outras ferramentas foram desenvolvidas para aumentar a interoperabilidade e a portabilidade em CPSs. O trabalho futuro prevê a geração automática de pipelines FB a partir de requisitos estruturados, com especificações formais como diagramas UML, integrando consequentemente o TREAO, simuladores de processos de fabrico e o T-Sync para validar, otimizar, simular layouts de fábrica e implementar software CPS iterativamente com flexibilidade e adaptabilidade melhoradas.

Palavras-chave: Alocação de Tarefas; Aprendizagem Automática; IEC 61499; Sistemas de Produção Ciberfísicos.

Provas de Doutoramento em Engenharia Informática: “Inmplode: A Framework to Interpret Multiple Related Rule-Based Models”

Candidato:

Pedro Rodrigo Caetano Strecht Ribeiro

Data, Hora e Local:

13 de junho de 2025, às 15:00, na Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:

Doutor Rui Filipe Lima Maranhão de Abreu, Professor Catedrático, Faculdade de Engenharia, Universidade do Porto

Vogais:

Doutor Johannes Fürnkranz, Full Professor at the Department of Computer Science of the Institute for Application-Oriented Knowledge Processing at the Johannes Kepler University Linz, Austria;

Doutor José María Alonso Moral, Profesor Titular de Universidad del Departamento de Electrónica y Computación de la Escuela Técnica Superior de Ingeniería de la Universidad de Santiago de Compostela, España;

Doutor José Luís Cabral de Moura Borges, Professor Associado, Departamento de Engenharia e Gestão Industrial, Faculdade de Engenharia, Universidade do Porto;

Doutor João Pedro Carvalho Leal Mendes Moreira, Professor Associado, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto (Orientador).

A tese foi coorientada pelo Doutor Carlos Manuel Milheiro de Oliveira Pinto Soares, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

Esta tese investiga os desafios e as oportunidades apresentados pela tendência crescente de utilização de múltiplos modelos especializados, designados por modelos operacionais, para abordar problemas complexos de análise de dados. Embora esta abordagem possa melhorar o desempenho preditivo para subproblemas específicos, frequentemente conduz a um conhecimento fragmentado e a dificuldades na compreensão de fenómenos a nível de uma organização.

Esta investigação centra-se na síntese do conhecimento incorporado num conjunto de modelos de árvores de decisão, escolhidos pela sua interpretabilidade inerente e adequação à extração de conhecimento. Por exemplo, uma empresa com cadeias de lojas ou uma universidade com diversos cursos, cada uma utilizando modelos de previsão dedicados (volume de vendas ou abandono escolar, respetivamente). Embora estes modelos localizados sejam importantes, uma perspetiva global é importante a nível organizacional. Contudo, a gestão de muitos modelos operacionais, especialmente para análises interprogramas/lojas, pode ser complexa.

É introduzida uma framework para fundir conjuntos de modelos operacionais em modelos consensuais. Estes modelos são direcionados a decisores de níveis superiores, melhorando a interpretabilidade do conhecimento gerado pelos modelos operacionais. A framework, denominada Inmplode, aborda desafios comuns na agregação de modelos e apresenta um processo customizável com um fluxo de trabalho genérico e componentes adaptáveis, detalhando abordagens alternativas para cada subproblema encontrado no processo de agregação.

A framework foi aplicada a quatro conjuntos de dados públicos de diversas áreas de negócio e a um estudo de caso na educação com dados da Universidade do Porto. Em cada caso, foram exploradas diferentes abordagens de agregação de modelos, ilustrando várias instanciações do processo.
O processo de agregação de modelos revelou que os modelos consensuais resultantes são frequentemente incompletos, ou seja, não conseguem cobrir todo o espaço de decisão, o que pode comprometer o seu propósito. Para abordar o problema da incompletude, são exploradas duas novas metodologias: uma baseia-se na geração de conjuntos de dados sintéticos seguida de treino de árvores de decisão, enquanto a outra utiliza um algoritmo especializado concebido para construir uma árvore de decisão diretamente a partir de dados agregados (i.e., simbólicos).

A eficácia destas metodologias na geração de modelos consensuais completos a partir de conjuntos de regras incompletos é avaliada nos cinco conjuntos de dados. Os resultados empíricos demonstram a viabilidade de superar a incompletude, constituindo um contributo para a área da síntese de conhecimento e modelação com árvores de decisão. Contudo, foram identificados compromissos entre a completude e a interpretabilidade, bem como entre o desempenho preditivo e a fidelidade dos modelos consensuais.

Globalmente, esta investigação aborda uma lacuna crítica na literatura, fornecendo um framework para sintetizar conhecimento a partir de múltiplos modelos de árvores de decisão, com particular foco no desafio da incompletude. As conclusões têm implicações significativas para organizações que procuram usar modelos especializados, obtendo também uma compreensão holística do fenómeno analisado.

Palavras chave: interpretability; rule-based models; model merging framework; decision trees; completeness.

Provas de Doutoramento em Engenharia Informática: ”Intelligent Ticket Management Assistant for Helpdesk Operations”

Candidato:

Leonardo da Silva Ferreira

Data, Hora e Local:

13 de junho de 2025, às 9:30, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:

Doutor Pedro Nuno Ferreira da Rosa da Cruz Diniz, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto

Vogais:

Doutor Pedro Manuel Henriques da Cunha Abreu, Professor Associado com Agregação, Departamento de Engenharia Informática, Faculdade de Ciência e Tecnologia da Universidade de Coimbra;

Doutor Paulo Jorge Freitas de Oliveira Novais, Professor Catedrático, Departamento de Informática, Escola de Engenharia da Universidade do Minho;

Doutor Carlos Manuel Milheiro de Oliveira Pinto Soares, Professor Associado, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto;

Doutora Ana Paula Cunha da Rocha, Professora Associada, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto;

Doutor Daniel Augusto Gama de Castro Silva, Professor Auxiliar, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto (Orientador).

A tese foi coorientada pelo Professor Mikel Uriarte Itzazelaia, Professor Associado da Escuela de Ingeniería de Bilbao, Universidad del País Basco.

Resumo:

A evolução dinâmica da internet, particularmente em setores como serviços multimédia, computação na cloud, internet of things, simulação, e inteligência artificial, levou a que as empresas tenham assistido a uma expansão significativa dos seus serviços e mercados. No entanto, este crescimento também expôs diversas vulnerabilidades que ameaçam a confidencialidade, integridade e disponibilidade dos dados organizacionais e pessoais. Enquanto os especialistas trabalham para responder aos alertas gerados por sistemas de segurança, a inteligência artificial tem introduzido novas formas de comprometer a segurança, variando desde métodos simples e de baixo custo até ataques altamente sofisticados. Abordagens de baixo custo incluem, por exemplo, phishing e password spraying, que exploram falhas humanas e senhas frágeis. Por outro lado, ameaças mais complexas, como os advanced persistent attacks e zero-day exploits, exigem conhecimento e recursos, sendo frequentemente direcionados a sistemas críticos. Várias organizações dependem de centros de helpdesk de cibersegurança, sejam internos ou subcontratados, para gerir incidentes. Contudo, estes centros enfrentam dificuldades em responder de forma eficaz devido à sobrecarga de dados e escassez de operadores qualificados.

Esta dissertação aborda a carência de operadores especializados e o elevado volume de incidentes enfrentados pelas operações de helpdesk, propondo o desenvolvimento de um assistente de gestão de tickets para apoiar operadores humanos na resolução destes incidentes. A plataforma incorpora um sistema de recomendação que, dependendo do contexto, identifica o par operador-procedimento mais rápido para cada incidente, melhorando continuamente com cada tratamento realizado. Para garantir a privacidade dos dados, o sistema de recomendação é treinado com dados artificiais gerados por um gerador de dados personalizado. Além disso, a tese explora a possibilidade de melhorar este assistente com funcionalidades de automated machine learning para prever tickets futuros. Esta funcionalidade pode auxiliar gestores na antecipação da carga de trabalho e na adaptação proativa das suas equipas de segurança.

O desenvolvimento desta framework é realizada em colaboração com a empresa de cibersegurança S21sec, que disponibilizou estruturas e taxonomias de dados históricos anonimizados relacionados com o tratamento de incidentes. No entanto, devido à ausência de informação granular sobre a resolução dos incidentes e informação relacionada com o conjunto de dados partilhados e à necessidade de preservar a privacidade, as técnicas de geração de dados sintéticos tornam-se essenciais. O gerador implementado cria dados artificiais que replicam distribuiçôes semelhantes às dos dados reais, ao mesmo tempo que simula processos do mundo real, incluindo priorização de tickets, agendamento e tratamento.

O gerador de dados artificiais é avaliado pela sua eficiência em replicar as características de conjuntos de dados do mundo real, através de métricas de similaridade como Hellinger distance e Kullback-Leibler divergence. Além disso, são explorados vários cenários de agendamento de tickets, variando o número de operadores e a sua distribuição em três turnos de trabalho. Os resultados demonstram que esta ferramenta consegue replicar tickets com diferentes distribuições e durações de tratamento, derivadas dos dados reais. Adicionalmente, este gerador permite a simulação de operações reais de helpdesk, proporcionando uma base sólida para explorar diversos contextos operacionais sem comprometer a privacidade dos mesmos. A análise do agendamento de tickets mostra consistentemente que cenários caracterizados por um grande desequilíbrio nos turnos e com menos operadores levam a tempos de espera mais longos e a mais tickets agendados para tratamento posterior.

O sistema de recomendação é testado em duas vertentes: escalabilidade e impacto no tratamento de tickets. A primeira fase utiliza diversos conjuntos de dados de teste com tamanhos e números de operadores diferentes, analisados com métricas como o tempo médio de recomendação e memória consumida. Por outro lado, o impacto no tratamento de tickets é examinado considerando as melhorias nos tempos de espera dos tickets antes de serem atribuídos a um operador e o tempo de resposta necessário para a sua resolução, utilizando diferentes graus de aceitação das recomendações. Os resultados indicam que o número de operadores que o sistema de recomendação utiliza tem um impacto ligeiramente superior na sua escalabilidade em comparação com o número de tickets de teste. Ambas as características mostram um padrão de crescimento linear semelhante em relação às métricas referidas, sendo que o número de operadores apresenta um maior declive. A integração deste sistema de recomendação no tratamento de tickets reduziu o tempo médio de resposta entre 37.9\% e 45.1\% e o tempo médio de espera entre 62.2\% e 63.2\%, assumindo que os operadores aceitam sempre as recomendações. Com taxas de aceitação de recomendações variáveis, o tempo médio de espera mantém-se constante, enquanto a melhoria no tempo de resposta varia entre 0.4\% e 11.7\%.

A potencial aplicação de automated machine learning para a análise preditiva é explorada através de um estudo onde as decisões relativamente à dimensionalidade das equipas recomendadas pelo sistema são comparadas com os resultados esperados. Este estudo avalia o sistema com base na precisão das previsões e na sua capacidade de sugerir ajustes no tamanho das equipas. Entre as distribuições de conjuntos de dados testadas, os modelos treinados com dados de três anos superaram os treinados com dados de quatro anos, apresentando um erro médio mais baixo ao utilizar dados reais sobre a frequência de tickets ao longo do ano. Relativamente às recomendações de dimensionalidade da equipa, incluindo a contratação ou despedimento de operadores, a ferramenta baseada em automated machine learning propôs frequentemente decisões estreitamente alinhadas com as esperadas no mesmo periodo.

Coletivamente, estes resultados mostram que as ferramentas propostas podem otimizar os fluxos de trabalho de tratamento de tickets em aplicações do mundo real, levando a um uso mais eficiente dos recursos e a uma redução dos atrasos operacionais. Além disso, a sua capacidade de simular operações do mundo real sem comprometer a privacidade permite que os centros de operações de segurança possam testar vários cenários e aperfeiçar as suas estratégias.

Palavras-chave: Helpdesk; Ticket; Cibersegurança; Dados Sintéticos; Sistemas Recomendação.

Provas de Doutoramento em Media Digitais “Interaction methods for digital musical instruments: Application in personal devices”

Candidato:
Alexandre Resende Clément

Data, Hora e Local:
5 de junho de 2025, 14:30, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor António Fernando Vasconcelos Cunha Castro Coelho, Professor Associado com Agregação da Faculdade de Engenharia da Universidade do Porto

Vogais:
Doutor Marcelo Mortensen Wanderley, Professor Catedrático do Departmento de Music Research da Schulich School of Music da McGill University, Canadá;
Doutor Damián Keller, Professor Titular do Centro de Educação, Letras e Artes da Universidade Federal do Acre, Brasil;
Doutora Sofia Carmen Faria Maia Cavaco, Professora Auxiliar do Departamento de Informática da Faculdade de Ciências e Tecnologia da Universidade NOVA de Lisboa;
Doutor Rui Pedro Amaral Rodrigues, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto;
Doutor Gilberto Bernardes de Almeida, Professor Auxiliar do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto (Orientador).

Resumo:

“Esta tese explora o potencial da utilização de dispositivos móveis como ferramentas para a interação e performance participativa com instrumentos musicais digitais. Orientada pelos princípios da música ubíqua e interação intuitiva, esta investigação analisa de que forma os dispositivos móveis podem ser apropriados para resolver desafios e criar oportunidades na criação musical contemporânea, através de abordagens participativas, mapeamento gestual e feedback multimodal. O núcleo deste trabalho é constituído por três experiências. A primeira descreve e avalia um sistema permitindo a participação de públicos de grandes dimensões em performances multimédia. Destaca a possibilidade de utilização destes dispositivos para envolver os utilizadores e promover a colaboração, revelando também desafios no design de interações intuitivas para participantes inexperientes. A segunda experiência examina de que forma os utilizadores representam instintivamente parâmetros musicais básicos – como afinação, duração e amplitude – através de mapeamento gestual, e o impacto da sua experiência musical nas estratégias de interação escolhidas. A terceira centra-se no estudo da influência do feedback multimodal, combinando modalidades auditivas, visuais e hápticas, em tarefas de afinação musical de notas. Os resultados reforçam a necessidade de elaborar diretrizes padronizadas para a interação e de integrar feedback multimodal, de forma a tornar os instrumentos digitais musicais mais acessíveis e intuitivos. A experiência 1 mostrou que a ausência de um modelo de interação unificado limita o envolvimento intuitivo, realçando a necessidade de padronização que equilibre criatividade individual e intenção colectiva. A experiência 2 encontrou preferências claras do utilizador para mapeamentos de gestos de início, afinação e duração de notas musicais, ancorados na familiaridade cultural e sustentando a importância de manter o design associado ao contexto. A experiência 3 mostrou que, embora o feedback multimodal demonstre pouco efeito imediato na precisão na afinação de notas musicais, melhorou a confiança do utilizador e pode ajudar na aprendizagem a longo prazo. Esta investigação contribui para a compreensão de como os dispositivos móveis podem apoiar as práticas musicais participativas e criativas, promovendo o desenvolvimento de ferramentas musicais inclusivas, fáceis de usar e versáteis.”

Provas de Doutoramento em Engenharia Informática “A Live Environment for Continuous Software Inspection and Refactoring”

Candidata:
Sara Filipa Couto Fernandes

Data, Hora e Local:
5 de maio de 2025, às 14:00, na Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor Rui Filipe Lima Maranhão de Abreu, Professor Catedrático da Faculdade de Engenharia da Universidade do Porto

Vogais:
Doutor Fabio Palomba, Assistant Professor of Software Engineering (SeSa) Lab, Department of Computer Science, University of Salerno, Itália;
Doutor António Manuel Ferreira Rito da Silva, Professor Associado, Departamento de Engenharia Informática, Instituto Superior Técnico da Universidade de Lisboa;
Doutor João Carlos Pascoal Faria, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto;
Doutor Ademar Manuel Teixeira de Aguiar, Professor Associado, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto (Orientador).

A tese foi coorientada pelo Professor André Monteiro de Oliveira Restivo, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

“Desenvolver software é complicado. Revê-lo, alterá-lo ou adaptá-lo é ainda mais difícil. Um mau design pode, rapidamente, levar à degradação do software, em que cada modificação pode criar uma codebase rígida e frágil. Neste sentido, evoluir um sistema destes torna-se quase impossível e a única solução é aplicar refactorings, no momento certo, para o melhorar. Na maioria das vezes, os programadores decidem refactorizar o seu código em etapas avançadas do desenvolvimento do mesmo, o que faz com que a maioria dos problemas nele presentes sejam já impossíveis de serem ignorados. Assim, os programadores tentam inspecionar o seu source code em busca de code smells e possíveis refactorings, de forma a trazer mais clareza ao design dos seus programas. É aqui que os programadores se apercebem que necessitam de ajuda, na forma de ferramentas específicas, que por vezes são excessivamente complexas e difíceis de usar. Apercebem-se, igualmente, que caso tivessem cuidado do seu código atempadamente talvez não tivessem estes problemas e poderiam continuar a desenvolver os seus sistemas sem quaisquer “dores de cabeça”. Neste processo de escrever e evoluir código, a metáfora de “mudança de chapéus” entre coding e a aplicação de refactorings deve ser adotada frequentemente, se não constantemente. Neste sentido, hipotisámos que um live refactoring environment, em que são apresentadas sugestões de refactoring em tempo real, é capaz de ajudar os programadores a estarem continuamente cientes das oportunidades de refactoring, tornando-as mais fáceis de executar quando ainda se tem o source code sob-controlo. Este ambiente de desenvolvimento tem em conta diversas métricas de qualidade de código, em tempo-real. Com esta abordagem, verificámos ser possível detetar code smells, fornecendo live feedback e apresentando visualmente possíveis candidatos de refactoring, de forma discreta e elegante para o programadores, sem estes terem de deixar o conforto do seu IDE. Mostramos que, ao aprimorar um IDE já existente recorrendo a mecanismos de refactoring, em tempo-real, podemos ajudar os programadores a compreender, adaptar e manter o seu software de uma forma mais controlada e rápida, permitindo-lhes produzir melhor código, com maior qualidade, mais rapidamente.
Neste sentido, com este trabalho, resultaram as seguintes contribuições: (i) uma extensa análise do estado da arte referente aos tópicos principais deste projeto, (ii) um live refactoring environment capaz de inspecionar o código para identificar, sugerir e aplicar possíveis refactorings, (iii) uma validação empírica composta por diferentes abordagens que nos permitiu obter dados que suportassem a veracidade da nossa abordagem e (iv) um conjunto de publicações científicas que resumem todo o trabalho efetuado. Embora este trabalho apresente contribuições significativas, existem áreas que podem ser futuramente exploradas. Podemos melhorar aspetos específicos do nosso Live Refactoring Environment, como incluir suporte para mais refactorings ou reduzir o tempo de processamento para código mais complexo. Além disso, trabalhos futuros podem envolver a previsão do impacto destes refactorings nas métricas de qualidade, podendo ainda haver o aperfeiçoamento da usabilidade da ferramenta, incluindo testes que incluam utilizadores daltónicos.”

Provas de Doutoramento em Media Digitais: ”Artificial Intelligence and Infodemic: a study on fact-checked Health Communication and synthetic media”

Candidata:
Haline Costa Maia

Data, Hora e Local:
24 de fevereiro de 2025, às 10h30, Sala de Atos do DEEC (I -105), Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor António Fernando Vasconcelos Cunha Castro Coelho, Professor Associado com Agregação, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto.

Vogais:
Doutor Christopher Mathieu, Associate Professor, Department of Sociology, Faculty of Social Sciences, Lund University;
Doutora Stefania Milan, Professor of Critical Data Studies, Department of Media Studies, Faculty of Humanities, University of Amsterdam;
Doutor António Maria Salvado Coxito Granado, Professor Associado com Agregação, Departamento de Ciências da Comunicação, Faculdade de Ciências Sociais e Humanas, Universidade Nova de Lisboa;
Doutora Ioli Ribeiro Campos, Professora Auxiliar, Faculdade de Ciências Humanas, Universidade Católica Portuguesa;
Doutora Helena Laura Dias de Lima, Professora Associada, Departamento de Ciências da Comunicação e da Informação, Faculdade de Letras, Universidade do Porto (Orientadora);
Doutor Alexandre Miguel Barbosa Valle de Carvalho, Professor Auxiliar, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto.

A tese foi coorientada pelo Prof. Sérgio Sobral Nunes, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

A disseminação de desinformação em saúde, especialmente durante pandemias, evidencia a necessidade de mecanismos eficazes para verificar e difundir informações fiáveis. Esta investigação, baseada no Value Sensitive Design(VSD), explora a integração da Inteligência Artificial (IA) na disseminação da verificação de factos em saúde, visando melhorar a rapidez e a fiabilidade da informação, garantindo simultaneamente o cumprimento de princípios éticos. A metodologia segue três fases do VSD: na fase de Investigações Conceptuais, foram realizadas revisões sistemáticas de 57 estudos (2020-2022) através do processo PRISMA; na fase de Investigações Técnicas, conduziram-se estudos de caso e entrevistas com stakeholders; e na fase de Investigações Empíricas, ferramentas baseadas em IA foram testadas através de workshops e grupos focais. Os resultados indicam que, embora a IA aumente a eficiência da verificação de factos, persistem desafios éticos, de governação e de confiança. O estudo fornece diretrizes para ferramentas de IA eficazes, inclusivas e eticamente responsáveis, contribuindo para o debate sobre a governação tecnológica e a ética dos media digitais na saúde pública.

Keywords:  AI Ethics; Infodemic; Generative Media; Fact-Checking; Health Misinformation; Media Literacy; Journalism Innovation.