Provas de Doutoramento em Engenharia Informática: ”Aiding researchers making their computational experiments reproducible”

Candidato:
Lázaro Gabriel Barros da Costa

Data, Hora e Local:
18 de julho de 2025, 16:00, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor Pedro Nuno Ferreira da Rosa da Cruz Diniz, Professor Catedrático do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Vogais:
Doctor Tanu Malik, Associate Professor in the Department of Electrical Engineering and Computer Science at the University of Missouri, U.S.A;
Doutor Miguel Carlos Pacheco Afonso Goulão, Professor Associado do Departamento de Informática da Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa;
Doutor Gabriel de Sousa Torcato David, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto;
Doutor Jácome Miguel Costa da Cunha, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto (Orientador).

A tese foi coorientada pela Doutora Susana Alexandra Tavares Meneses Barbosa, Investigadora Sénior do INESCTEC Porto.

Resumo:

A reprodutibilidade e a replicabilidade científica são pilares essenciais de uma investigação credível, especialmente à medida que os experiências computacionais se tornam cada vez mais prevalentes em diversas disciplinas científicas, como a química, a ciência do clima e a biologia. Apesar da forte defesa da Ciência Aberta e da adesão aos princípios FAIR (Findable, Accessible, Interoperable e Reusable — Localizável, Acessível, Interoperável e Reutilizável), alcançar uma verdadeira reprodutibilidade continua a ser um desafio considerável para muitos investigadores. Questões fundamentais como a gestão complexa de dependências, metadados inadequados e o acesso frequentemente moroso ao código e dados necessários comprometem seriamente os esforços de reprodutibilidade. Além disso, as ferramentas atualmente disponíveis oferecem frequentemente soluções fragmentadas que não conseguem responder às necessidades multifacetadas de configurações experimentais diversas e complexas, particularmente aquelas que envolvem múltiplas linguagens de programação e sistemas de dados intricados.
Esta tese aborda estes desafios através da apresentação de uma ferramenta abrangente concebida para melhorar a reprodutibilidade computacional em várias áreas científicas. A nossa abordagem
incluiu uma revisão sistemática detalhada das ferramentas existentes de reprodutibilidade com o objetivo de identificar lacunas e limitações prevalecentes ao nível do design e funcionalidade.
Esta revisão evidenciou a natureza fragmentada dessas ferramentas, cada uma suportando apenas aspetos do processo de reprodutibilidade, sem fornecer uma solução holística, em particular
para experiências que exigem uma gestão de dados robusta ou suporte a múltiplas linguagens de programação.
Para colmatar estas lacunas, introduzimos o SCIREP, uma ferramenta inovadora que automatiza aspetos essenciais do fluxo de trabalho da reprodutibilidade, como a gestão de dependências, containerização e compatibilidade entre plataformas. Esta ferramenta foi rigorosamente avaliada utilizando um conjunto curado de experiências computacionais, alcançando uma taxa de sucesso
de reprodutibilidade de 94%. Com o objetivo de aumentar a acessibilidade e a usabilidade da investigação reprodutível, desenvolvemos o SCICONV, uma interface conversacional que simplifica a configuração e execução de experiências computacionais, utilizando processamento de linguagem natural. Esta interface reduz significativamente as barreiras técnicas tradicionalmente associadas à configuração de estudos reprodutíveis, permitindo que os investigadores interajam com o sistema através de conversas simples e orientadas. Os resultados da avaliação indicaram que o SCICONV conseguiu reproduzir 83% das experiências do nosso conjunto de dados curado com a mínima interação do utilizador, demonstrando o seu potencial para tornar a investigação reprodutível mais acessível a uma gama mais ampla de investigadores.
Adicionalmente, reconhecendo o papel fundamental dos estudos com utilizadores na avaliação de ferramentas, metodologias e protótipos — particularmente nas áreas da engenharia de software e das ciências comportamentais—esta tese estende-se também ao domínio da avaliação experimental de ferramentas. Conduzimos uma análise aprofundada das ferramentas existentes utilizadas em experiencias nas áreas mencionadas, identificando e propondo funcionalidades especificas destinadas a melhorar a sua utilidade e facilidade de uso na condução de estudos com utilizadores. Estas funcionalidades foram validadas através de um inquérito a comunidade cientifica, confirmando a sua relevância e a necessidade da sua integração em ferramentas atuais e futuras. As contribuições desta tese são múltiplas, abrangendo o desenvolvimento de uma classificação para ferramentas de reprodutibilidade, a criação de um conjunto de dados de referencia padronizado para avaliação da eficácia das ferramentas, e a formulação das ferramentas SCIREP e SCICONV para um avanço significativo do estado da arte em reprodutibilidade computacional. No futuro, a investigação ira centrar-se na expansão das capacidades destas ferramentas para suportar fluxos de trabalho científicos mais complexos, melhorar as interfaces de utilizador e integrar funcionalidades adicionais que suportem os estudos com utilizadores. Ao faze-lo, este trabalho visa abrir caminho para um ecossistema de reprodutibilidade computacional mais robusto, acessível e eficiente, capaz de responder as necessidades em constante evolução da comunidade cientifica global.

Palavras-chave: Reprodutibilidade; Replicabilidade; Reutilização; Experiências computacionais; Interface de utilizador conversacional; Estudos de utilizadores.

Provas de Doutoramento em Media Digitais: ”Mapping Multi-Meter Rhythm in the DFT: Towards a Rhythmic Affinity Space”

Candidato:
Diogo Miguel Filipe Cocharro

Data, Hora e Local:
22 de julho de 2025, 15:00, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor António Fernando Vasconcelos Cunha Castro Coelho, Professor Associado com Agregação do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto

Vogais:
Doutor Matt Chiu, Assistant Professor of Music Theory at the Conservatory of Performing Arts at the Baldwin Wallace University, EUA;
Doutor Daniel Gómez-Marín, Profesor del Departamento de Diseño e Innovación de la Escuela de Tecnología, Diseño e Innovación de la Facultad Barberi de Ingeniería, Diseño y Ciencias Aplicadas de la Universidad Icesi, Colombia;
Doutora Sofia Carmen Faria Maia Cavaco, Professora Auxiliar do Departamento de Informática da Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa;
Doutor Sérgio Reis Cunha, Professor Auxiliar do Departamento de Engenharia Eletrotécnica e de Computadores da Faculdade de Engenharia da Universidade do Porto;
Doutor Gilberto Bernardes de Almeida, Professor Auxiliar do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto (Orientador).

A tese foi coorientada pelo Doutor Rui Luis Nogueira Penha, Professor Coordenador da Escola Superior de Música e das Artes do Espetáculo.

Resumo:

A música é inerentemente uma manifestação temporal, e o ritmo é um componente crucial dela. Enquanto o ritmo pode existir sem melodia ou harmonia, estas últimas não podem existir sem o ritmo. No entanto, o ritmo é uma disciplina frequentemente menos estudada em comparação com a harmonia. A afinidade rítmica é um conceito musical que descreve a relação natural e agradável entre dois ou mais padrões rítmicos. Trata-se de quando esses padrões, mesmo que complexos ou aparentemente díspares, criam uma sensação de coesão e fluidez em vez de dissonância ou conflito. Esta afinidade pode surgir de vários fatores, como motivos rítmicos partilhados, estruturas rítmicas complementares ou um pulso subjacente forte que unifica as diferentes camadas. Estudiosos da música começaram recentemente a investigar estes fenómenos, particularmente o trabalho seminal de Harald Krebs sobre Dissonância Rítmica, que contribuiu com um quadro abrangente para compreender e categorizar a dissonância métrica na música, ou o trabalho de Godfried T. Toussaint, que discute vários métodos para medir a similaridade rítmica, oferecendo perspectivas sobre as inter-relações estruturais entre diferentes ritmos. Um estudo recente investigou o comportamento de métricas típicas de similaridade rítmica em diferentes géneros. As principais conclusões revelaram que a similaridade varia dentro de um intervalo limitado entre géneros e instrumentos. Esta análise sistemática abriu a discussão e pesquisa sobre o conceito de compatibilidade rítmica, enfatizando a necessidade de compreendê-la como um conceito distinto da similaridade rítmica. Conjuntamente, isso proporcionou condições para estudos subsequentes e abriu novas perspetivas para reunir conceitos relacionados à afinidade rítmica. O espaço da Transformada Discreta de Fourier (DFT) tem sido amplamente aplicado na harmonia para criar espaços de altura, mostrando grande potencial para mapear todos os tipos de configurações de alturas correspondentes às perceções humanas de alturas, acordes e tonalidades, bem como aos princípios da teoria musical como distâncias. A sua aplicação no ritmo tem sido geralmente limitada somente a padrões rítmicos ou dentro do contexto de uma peça musical, não como um espaço rítmico multimétrico que abrangente a todo o espectro de ritmos. Este estudo investiga o potencial da DFT como um espaço rítmico multimétrico para explorar afinidades rítmicas, focando especificamente na categoria de dissonância de agrupamento. Este fenómeno relaciona-se com práticas frequentemente encontradas na composição musical, como poli-metria, poli-ritmos, hemiolas e quiálteras, que permitem a sobreposição de padrões rítmicos que, em princípio, apresentam baixa similaridade entre si, mas que são percecionados como agradáveis enquanto dissonância combinada. O exemplo mais conhecido é o de três contra dois. O objetivo principal é analisar e criar padrões rítmicos examinando similaridade e dissonância no espaço. A nossa abordagem centra-se em estratégias para representar ritmos no domínio do tempo e as suas implicações no domínio da frequência. Constatámos que cada método tem capacidades distintas para captar similaridade e dissonância, podendo ser usado para diversos propósitos musicais.

Repensar a Engenharia Informática na Era da Inteligência Artificial Generativa

No próximo dia 14 de julho, o Departamento de Engenharia Informática (DEI) da FEUP, promoverá mais uma edição do DEI Open Day, este ano para “Repensar a Engenharia Informática na Era da Inteligência Artificial Generativa”.

A emergência da Inteligência Artificial Generativa, em particular dos grandes modelos de linguagem, está a transformar profundamente a forma como pensamos, ensinamos e praticamos Engenharia Informática. Atividades tradicionalmente associadas ao raciocínio humano — como escrever, sintetizar conhecimento ou programar — passam agora a ser partilhadas com sistemas que aprendem, raciocinam e criam.
Este novo contexto levanta questões fundamentais: Que competências devem ser priorizadas na formação dos engenheiros informáticos? O que continua a fazer sentido ensinar? Como devem as instituições de ensino superior preparar os estudantes para um mercado de trabalho em rápida transformação?

A Keynote de Luís Garrido Marques (PBS) e a mesa redonda moderada por Carlos Baquero (DEI/FEUP), que juntará Luís Wolffrom Barbosa (L.EIC), Rita Nogueira Lopes (M.EIC), Pedro Fortuna (Jscrambler), Helena Leite (Cleva) e Miguel Sozinho Ramalho (Bellingcat), irão explorar estas e outras questões, articulando visões académicas, estudantis e empresariais sobre as grandes transformações do mundo atual.

Durante o período da tarde, os representantes das empresas terão a oportunidade de realizar sessões individuais com docentes do DEI, com vista a aprofundar o conhecimento sobre as diversas possibilidades de colaboração institucional, nomeadamente no âmbito das Dissertações de Mestrado, do Projeto Integrador da Licenciatura em Engenharia Informática e Computação (L.EIC), do Laboratório de Gestão de Projetos (LGP), de programas como o FEUP Prime e o DoRPE, bem como através de parcerias com os núcleos estudantis associados ao DEI.

O DEI Open Day realiza-se anualmente e constitui uma montra das atividades de ensino, investigação e inovação do DEI, com o propósito de estreitar laços com empresas, instituições e a sociedade em geral, promovendo colaborações com impacto.

Mais informação sobre o evento pode ser vista na webpage do evento.

DEI Talks | “Immersive Media and the Colombian Armed Conflict: Rethinking Journalism Through 360º Storytelling” por Andrés Lotero

A palestra “Immersive Media and the Colombian Armed Conflict: Rethinking Journalism Through 360º Storytelling” será apresentada dia 10 de julho, às 16:30, na sala I-105, moderada por António Baía Reis (Professor Auxiliar e bolseiro de pós-doutoramento Marie Skłodowska-Curie – Departamento de Sociologia e Comunicação, Universidade de Salamanca, Espanha).

Resumo:

“This talk presents research on the use of immersive media, specifically 360º video technology, as a journalistic tool for covering the Colombian armed conflict and promoting narratives of peacebuilding. Drawing on a qualitative multiple-case study, the speaker explores four immersive projects that document post-conflict experiences from the perspectives of victims and former combatants.The presentation will examine the motivations behind the adoption of immersive technologies in these contexts and critically reflect on their potential, limitations, and ethical implications. Particular attention will be given to the emotional and narrative impact of immersive storytelling, as well as concerns regarding image manipulation and journalistic independence. By highlighting good practices and identifying key challenges, this talk contributes to a broader understanding of the role immersive media can play in conflict reporting and peace communication, offering valuable insights for journalists, media professionals, and scholars interested in emerging storytelling formats. In an increasingly polarized and crisis-driven world, this research invites reflection on how immersive journalism can foster deeper engagement with complex realities.”

Sobre o Palestrante:

Andrés David Castro Lotero é professor de língua espanhola com especialização em Cultura e Economia e doutorando em Ciências da Comunicação na Universidade de Passau desde 2019. Anteriormente, estudou Comunicação e Jornalismo na Colômbia e fez um mestrado em Estudos de Desenvolvimento na Universidade de Passau. O seu tópico de investigação é principalmente a utilização de novos meios de comunicação no desenvolvimento de comunidades vulneráveis e na construção da paz, especialmente em contextos latino-americanos.

Provas de Doutoramento em Media Digitais: “Integration of models for linked data in cultural heritage and contributions to the FAIR principles”

Candidata:
Inês Dias Koch

Data, Hora e Local:
1 de julho de 2025, 14:30, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Título:
“Integration of models for linked data in cultural heritage and contributions to the FAIR principles”

Presidente do Júri:
Doutor João Carlos Pascoal Faria, Professor Catedrático do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Vogais:
Doutora Maja Žumer, Professora Catedrática, Department of Library and Information Science of the University of Ljubljana, Slovenia;

Doutora María Poveda Villalón, Professora Associada, Departament of Artificial Intelligence of the Technical University of Madrid, Spain;

Doutor José Luís Brinquete Borbinha, Professor Catedrático, Departamento de Informática do Instituto Superior Técnico da Universidade de Lisboa;

Doutor Pedro Manuel Rangel Santos Henriques, Professor Catedrático, Departamento de Informática da Escola de Engenharia da Universidade do Minho;

Doutora Carla Alexandra Teixeira Lopes, Professora Associada, Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto (Orientadora);

Doutora Mariana Curado Malta, Professora Auxiliar, Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

A tese foi Coorientada pela Doutora Maria Cristina de Carvalho Alves Ribeiro, Professora Associada Aposentada do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

As diversas áreas do Património Cultural, como os arquivos, os museus e as bibliotecas, têm investido no desenvolvimento tecnológico e na inovação para disponibilizar os seus recursos aos utilizadores de forma mais eficiente e completa. Para tal, a descrição destes recursos é essencial para que sejam explicitados em termos do seu contexto e conteúdo, bem como para facilitar a sua inteligibilidade e acessibilidade. Neste sentido, cada área do património começou a desenvolver os seus próprios modelos e normas para descrever os objetos culturais com que lida. Isto fez com que estas normas se tornassem específicas de cada domínio e pudessem apenas atender às necessidades de informação dentro da área de conhecimento em que foram desenvolvidos, explorando apenas a informação descrita dentro do seu domínio. Como resultado, ligar recursos de diferentes fontes de informação é desafiante. Com a necessidade de tornar os padrões e modelos mais interoperáveis, surgiram modelos de dados ligados no Património Cultural. Estes modelos permitem ligar os vários conceitos das diferentes áreas do património de forma eficiente e eficaz, considerando as características da Web Semântica.
Em Portugal, o Arquivo Nacional sentiu a necessidade de desenvolver um modelo de dados interligados para descrever os seus objetos culturais, o que levou à criação do Projeto EPISA, projeto do qual surgiu esta investigação. Assim, este trabalho tem como objetivo desenvolver um modelo de dados ligados para descrever os registos de arquivo, bem como conectá-los a outros domínios do património cultural. Para além disso, pretende integrar o modelo desenvolvido com os modelos de dados ligados existentes, promovendo o acesso e a reutilização de dados de instituições patrimoniais com base na descrição especializada. Além disso, visa ligar os modelos de dados existentes a dados de outras fontes disponíveis na Web, como a Wikidata e a DBpedi.Realizamos um estudo que inclui modelos de dados existentes no Património Cultural, como o CIDOC CRM em museus, o RiC-CM em arquivos e o LRMoo em bibliotecas, juntamente com modelos que surgiram em projetos Web, como o DBpedia e o Wikidata. Ao descrever objetos de arquivo, bem como ao criar e explorar relações entre outros modelos de dados, este estudo identifica características e princípios comuns, bem como os aspetos distintivos de cada área. Além disso, identifica a possibilidade de ligar elementos dos vários modelos, garantindo que os modelos podem ser adaptados às aplicações sem perder a riqueza da conceptualização realizada em cada um dos domínios. Num contexto em que a Web promove a explicitação da semântica dos dados através da Web Semântica e disponibiliza ferramentas para a sua representação, é necessário, por um lado, criar ligações entre modelos de diferentes comunidades e, por outro, ajustar a complexidade de cada modelo para cada aplicação de acordo com as suas necessidades específicas. Os Princípios FAIR (Findable, Accessible, Interoperable, Reusable) foram, portanto, utilizados como uma das fontes para os requisitos que os dados e metadados devem cumprir para terem uma estrutura modular. Reunimos uma coleção de casos de utilização ligados a utilizadores de arquivos, incluindo perfis que vão desde gestores de coleções a promotores de património e utilizadores informais. Além disso, compilámos e avaliámos um conjunto de experiências de modelação de dados utilizando diferentes modelos. Deste trabalho resultou o ArchOnto, uma ontologia modular que descreve registos de arquivo. Foi desenvolvido considerando os padrões arquivísticos existentes e validado por especialistas na área,
nomeadamente arquivistas do Arquivo Nacional Português. O ArchOnto baseia-se no CIDOC CRM, combinado com outras quatro ontologias específicas também desenvolvidas neste trabalho. O desenvolvimento do ArchOnto levou à criação de uma plataforma protótipo concebida para explorar e manipular registos de arquivo. Além disso, oferece o potencial de aplicar esta ontologia a outros domínios, especificamente à representação de registos cinematográficos.

Palavras Chave: Património Cultural; Dados Abertos Ligados; Integração de dados; Web Semântica; Princípios FAIR; Humanidades Digitais.

Investigação “Made in FEUP” em mostra no DCE 2025

O DCE – Doctoral Congress in Engineering, está de volta para a sua 6ª edição e dará palco a centenas de trabalhos de investigação em curso nos vários programas doutorais da Faculdade de Engenharia da Universidade do Porto (FEUP).

Ao longo dos dias 30 de junho e 1 de julho, o evento oferecerá um programa rico e diversificado, que inclui keynote lectures, mesas redondas, exposição/sessão de posters, workshops, os simpósios de todos os programas doutorais, uma entrega de prémios e vários momentos de convívio entre os participantes. Haverá ainda a presença de 34 stands de empresas que procurarão durante os dois dias, mostrar e promover inovação, e atrair talento.

É neste âmbito que se realizará durante a manhã de terça feira, o Simpósio de Informática, este ano sob o tema “Leading the Digital Transformation”, organizado por estudantes de doutoramento do Programa Doutoral em Engenharia Informática (PRODEI), do Programa Doutoral em Media Digitais (PDMD) e do Programa Doutoral em Informática (MAP.i).
Depois da apresentação de vários trabalhos em curso dos três programas doutorais, a sessão encerrará com a palestra “Crowds and Graphics: Beyond Animation and Visual Effects”, apresentada por Julien Pettré, Senior Researcher at Inria Centre da Rennes University.

Uma das iniciativas introduzidas na edição deste ano do DCE é o programa “Venture Scientists” que oferece a estudantes de doutoramento previamente selecionados a oportunidade de apresentar, em apenas 5 minutos, uma proposta de investigação inovadora. A apresentação deverá centrar-se num produto, processo ou serviço derivado da sua investigação, destacando o seu potencial inovador e o correspondente plano de execução.

Nesta edição, estão em competição sete propostas desenvolvidas na FEUP, que serão avaliadas por um painel de jurados com vasta experiência nos meios académico e empresarial: Wilson Caldeira (Professor Convidado da FEUP), Carrie Baptist (Chief Strategy Officer da Conception X), Raphael Stanzani (Responsável pelos Programas de Empreendedorismo da UPTEC), Bruno Azevedo (CEO da AddVolt) e Júlio Martins (CEO da Everythink).

Destacamos a proposta “BodyBoost” da estudante do ProDEI Ana Sofia Teixeira, a frequentar o 2º ano do doutoramento. O projeto consiste no desenvolvimento de um wearable inteligente e discreto, concebido para ser utilizado na zona lombar. Este dispositivo realiza uma monitorização contínua da postura e dos movimentos, identificando de forma silenciosa eventuais maus hábitos posturais. Sempre que necessário, emite uma leve vibração que estimula uma correção rápida e natural, sem interferir com a atividade em curso.

O DCE25 consolida-se como uma plataforma de excelência para a partilha de conhecimento, o diálogo entre diferentes áreas do saber e a promoção de sinergias entre investigação, inovação e a sociedade. Representa a dinâmica científica da FEUP e evidencia a projeção cada vez maior da engenharia portuguesa a nível internacional.

Provas de Doutoramento em Engenharia Informática: ”Towards Continuous Certification of Software Systems for Aerospace”

Candidato:
José Eduardo Ferreira Ribeiro

Data, Hora e Local:
30 de junho de 2025, às 14h30, na Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Título:
”Towards Continuous Certification of Software Systems for Aerospace”

Presidente do Júri:

Doutor Rui Filipe Lima Maranhão de Abreu, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto

Vogais:

Doutor Miguel Mira da Silva, Professor Catedrático, Departamento de Engenharia Informática, Instituto Superior Técnico da Universidade de Lisboa;

Doutor João Miguel Lobo Fernandes, Professor Catedrático, Departamento de Informática, Escola de Engenharia da Universidade do Minho;

Doutor João Carlos Pascoal Faria, Professor Catedrático, Departamento de Engenharia Informática , Faculdade de Engenharia da Universidade do Porto;

Doutor João Gabriel Monteiro de Carvalho e Silva, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Ciências e Tecnologia da Universidade de Coimbra (Coorientador).

A tese foi orientada pelo Doutor Ademar Manuel Teixeira de Aguiar, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

Desde a publicação do Manifesto Ágil em 2001, os métodos Ágeis evoluíram para se tornarem a abordagem dominante no desenvolvimento de software em diversos domínios. No entanto, a sua adoção no desenvolvimento de sistemas críticos, como na indústria aeroespacial, permanece limitada por razões habitualmente atribuídas aos rigorosos requisitos regulatórios de safety impostos por normas específicas do domínio. Esta dissertação explora a aplicabilidade dos métodos Ágeis no contexto do desenvolvimento de software aeroespacial crítico, especificamente sob as diretrizes da norma DO-178C, e conclui que, ao contrário dessa perceção generalizada, os métodos Ágeis também podem ser usados com vantagem neste contexto. A norma DO-178C, intitulada Software Considerations in Airborne Systems and Equipment Certification, é a principal norma de certificação para software aeronáutico por parte de agências como a Federal Aviation Administration (FAA) e a European Union Aviation Safety Agency (EASA).

Uma observação recurrente durante discussões com profissionais de diferentes organizações e indústrias com fortes requisitos de safety, incluindo espaço, aeroespacial, ferroviária, automóvel, energia e defesa, é a perceção generalizada de que métodos tradicionais como o modelo Waterfall são indispensáveis, se não mesmo obrigatórios, para garantir conformidade e obter a certificação. Esta perceção resulta da exigência de evidências rigorosas relacionadas com safety necessárias para a certificação. No desenvolvimento de software aeroespacial, a adoção mínima de métodos e práticas Ágeis é atribuída às exigências da DO-178C, considerada uma norma restritiva. Contudo, contrariamente a esta crença, a DO-178C não exige nenhum método de desenvolvimento específico, mas fornece diretrizes e objetivos para alcançar as evidências de safety necessárias. Esta flexibilidade abre a possibilidade de adaptar métodos Ágeis para cumprir os requisitos de certificação, mantendo as suas bem-documentadas vantagens, como a entrega incremental e a adaptabilidade a alterações nos requisitos.

Esta pesquisa examina se os métodos Ágeis, particularmente a Scrum framework, podem ser efetivamente integrados no desenvolvimento de sistemas de software aeroespacial críticos, mantendo a total conformidade com o DO-178C. O estudo apresenta o Scrum4DO178C, um processo ágil inovador baseado no Scrum, construído para abordar os desafios específicos do desenvolvimento de software aeroespacial, incluindo os extensos esforços de verificação e validação (V&V) necessários neste contexto. Através de uma revisão abrangente da literatura, das práticas da indústria e de dados, bem como de insights do mundo real provenientes de um caso de estudo industrial envolvendo um projeto aeroespacial crítico (Nível de Software A – Catastrófico), a pesquisa avalia a viabilidade e os benefícios desta abordagem. O caso de estudo demonstra que o Scrum4DO178C melhora o desempenho do projeto, aumenta a capacidade de resposta a mudanças nos requisitos e reduz os esforços de V&V, em comparação com Waterfall, ao mesmo tempo que cumpre os requisitos do DO-178C.
Estes resultados desafiam a noção prevalecente de que os métodos Ágeis são inerentemente incompatíveis com domínios críticos e mostram que, quando adaptados de forma ponderada, os métodos Ágeis podem satisfazer os rigorosos requisitos de normas como o DO-178C. Ao resolver as dificuldades existentes no uso de métodos e práticas Ágeis no desenvolvimento de sistemas críticos, este trabalho defende uma mudança de paradigma no desenvolvimento de software crítico, promovendo uma abordagem mais adaptável e centrada no cliente. Especificamente, a pesquisa destaca a capacidade do Ágil de acelerar a aquisição de conhecimento através de ciclos de entrega e de feedback mais curtos, e de melhorar a rastreabilidade e gerir alterações tardias nos requisitos de forma mais eficiente, também no domínio aeroespacial.

Partindo deste trabalho base estão em curso outras linhas de investigação para aprimorar o processo Scrum4DO178C através da automação, possibilitando a geração e reutilização dos outputs necessários para a conformidade com o DO-178C. Além disso, pesquisas futuras irão expandir estes conceitos para outras normas aeroespaciais e domínios críticos, garantindo a sua aplicabilidade e conformidade em diferentes frameworks regulatórias. Apoiada por iniciativas colaborativas com universidades (projetos de dissertação de mestrado na Faculdade de Engenharia da Universidade do Porto (FEUP) e no Departamento de Engenharia Informática da Universidade de Coimbra (UC)) e parceiros da indústria, esta pesquisa visa reformular as perceções da indústria sobre o papel dos métodos Ágeis em sistemas críticos, promovendo a inovação e adaptabilidade nestes ambientes complexos.

Palavras chave: Agile; Aerospace; DO-178C; FAA; Safety-critical; Software development.

Provas de Doutoramento em Engenharia Informática: ”An Optimization Strategy for Resource Allocation in Cyber Physical Production Systems”

Candidato:
Eliseu Moura Pereira

Data, Hora e Local:
17 de junho de 2025, 10:00, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:
Doutor Carlos Miguel Ferraz Baquero-Moreno, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto

Vogais:
Doutor Pedro Nicolau Faria da Fonseca, Professor Auxiliar, Departamento de Eletrónica, Telecomunicações e Informática, Universidade de Aveiro;
Doutor Paulo Jorge Pinto Leitão, Professor Coordenador Principal, Departamento de Eletrotecnia, Escola Superior de Tecnologia e Gestão, Instituto Politécnico de Bragança;
Doutor André Monteiro de Oliveira Restivo, Professor Associado, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto;
Doutor Gil Manuel Magalhães de Andrade Gonçalves, Professor Associado com Agregação, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto (Orientador).

A tese foi coorientada pelo Doutor João Pedro Correia dos Reis, Investigador Auxiliar do Departamento de Engenharia Eletrotécnica e de Computadores.

Resumo:

Os Sistemas de Produção Ciberfísicos (CPPSs) integram tecnologias de computação, comunicação e controlo, proporcionando a flexibilidade necessária para a reconfiguração dinâmica do chão de fábrica e para a manufatura eficiente. Uma fábrica com maior flexibilidade de chão de fábrica tem a vantagem de uma maior personalização ou manufatura de novos produtos, quando comparada com as indústrias tradicionais. Esta vantagem é relevante principalmente quando a indústria introduz um novo produto ou porque o chão de fábrica produz produtos altamente variáveis que necessitam de uma reconfiguração constante. Hoje em dia, vários fabricantes adotam esta filosofia de produção, como é o caso da indústria automóvel, onde uma grande variabilidade de modelos e especificações de automóveis exigem diferentes ajustes/configurações do chão de fábrica para os fabricar. Em linhas de produção sequenciais, como as linhas de montagem de automóveis, os CPPS reconfiguráveis desempenham um papel essencial porque o processamento de um produto pode afetar todo o desempenho da produção, exigindo a reconfiguração do chão de fábrica para otimizar a sua execução. Um desafio significativo nos CPPSs surge quando as condições mudam, como novos produtos ou requisitos, que exigem reconfiguração. Os sistemas atuais frequentemente dependem de intervenção manual, o que leva a atrasos significativos, especialmente em grandes indústrias, onde a reprogramação de centenas de máquinas pode demorar dias ou semanas. Esta tese aborda esse problema propondo uma plataforma que otimiza automaticamente a atribuição de software aos recursos existentes, acelerando o desenvolvimento, execução e reconfiguração, permitindo que os CPPSs se adaptem rapidamente a perturbações externas.

Com o objetivo de acelerar o desenvolvimento, a reconfiguração e a execução de software em CPPSs, esta tese visa otimizar a atribuição de Function Blocks (FBs) aos dispositivos existentes num Sistema Ciberfísico (CPS) baseado no IEC 61499, reduzindo o tempo total de execução. Com este objetivo principal, a tese resultou no desenvolvimento de 3 ferramentas: 1) o Dynamic Intelligent Architecture for Software and Modular Reconfiguration (DINASORE), que permite o desenvolvimento, execução e reconfiguração manual de CPSs baseados no IEC 61499, 2 ) o Task Resources Estimator and Allocation Optimizer (TREAO), que simula e otimiza a atribuição de tarefas/FBs aos dispositivos, recomendando layouts de software adequados às características do CPS, e 3) o Task Assignment Optimization and Synchronization Engine (T-Sync), que integra as duas ferramentas anteriores numa solução, que otimiza de forma online a atribuição de FBs aos dispositivos existentes num CPS baseado no IEC 61499.

A integração das ferramentas no T-Sync resultou numa solução diferenciadora porque 1) permite a atribuição de FBs online para otimizar continuadamente a execução do CPS e 2) melhora a transparência e interoperabilidade entre FBs nos dispositivos baseados no IEC 61499. Com esta solução, o desempenho da execução de FBs em CPSs reconfiguráveis melhorou em 30% em ambiente simulado e 61% em um CPS. Para além do T-Sync melhorar o tempo total de execução, o DINASORE melhora a eficiência e a flexibilidade da reconfiguração, enquanto o TREAO facilita o desenvolvimento de CPSs ao otimizar a atribuição de tarefas e FBs aos recursos disponíveis. Além das ferramentas mencionadas, durante esta tese, outros algoritmos foram implementados e testados para otimização da atribuição de tarefas, e outras ferramentas foram desenvolvidas para aumentar a interoperabilidade e a portabilidade em CPSs. O trabalho futuro prevê a geração automática de pipelines FB a partir de requisitos estruturados, com especificações formais como diagramas UML, integrando consequentemente o TREAO, simuladores de processos de fabrico e o T-Sync para validar, otimizar, simular layouts de fábrica e implementar software CPS iterativamente com flexibilidade e adaptabilidade melhoradas.

Palavras-chave: Alocação de Tarefas; Aprendizagem Automática; IEC 61499; Sistemas de Produção Ciberfísicos.

Provas de Doutoramento em Engenharia Informática: “Inmplode: A Framework to Interpret Multiple Related Rule-Based Models”

Candidato:

Pedro Rodrigo Caetano Strecht Ribeiro

Data, Hora e Local:

13 de junho de 2025, às 15:00, na Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:

Doutor Rui Filipe Lima Maranhão de Abreu, Professor Catedrático, Faculdade de Engenharia, Universidade do Porto

Vogais:

Doutor Johannes Fürnkranz, Full Professor at the Department of Computer Science of the Institute for Application-Oriented Knowledge Processing at the Johannes Kepler University Linz, Austria;

Doutor José María Alonso Moral, Profesor Titular de Universidad del Departamento de Electrónica y Computación de la Escuela Técnica Superior de Ingeniería de la Universidad de Santiago de Compostela, España;

Doutor José Luís Cabral de Moura Borges, Professor Associado, Departamento de Engenharia e Gestão Industrial, Faculdade de Engenharia, Universidade do Porto;

Doutor João Pedro Carvalho Leal Mendes Moreira, Professor Associado, Departamento de Engenharia Informática, Faculdade de Engenharia, Universidade do Porto (Orientador).

A tese foi coorientada pelo Doutor Carlos Manuel Milheiro de Oliveira Pinto Soares, Professor Associado do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

Resumo:

Esta tese investiga os desafios e as oportunidades apresentados pela tendência crescente de utilização de múltiplos modelos especializados, designados por modelos operacionais, para abordar problemas complexos de análise de dados. Embora esta abordagem possa melhorar o desempenho preditivo para subproblemas específicos, frequentemente conduz a um conhecimento fragmentado e a dificuldades na compreensão de fenómenos a nível de uma organização.

Esta investigação centra-se na síntese do conhecimento incorporado num conjunto de modelos de árvores de decisão, escolhidos pela sua interpretabilidade inerente e adequação à extração de conhecimento. Por exemplo, uma empresa com cadeias de lojas ou uma universidade com diversos cursos, cada uma utilizando modelos de previsão dedicados (volume de vendas ou abandono escolar, respetivamente). Embora estes modelos localizados sejam importantes, uma perspetiva global é importante a nível organizacional. Contudo, a gestão de muitos modelos operacionais, especialmente para análises interprogramas/lojas, pode ser complexa.

É introduzida uma framework para fundir conjuntos de modelos operacionais em modelos consensuais. Estes modelos são direcionados a decisores de níveis superiores, melhorando a interpretabilidade do conhecimento gerado pelos modelos operacionais. A framework, denominada Inmplode, aborda desafios comuns na agregação de modelos e apresenta um processo customizável com um fluxo de trabalho genérico e componentes adaptáveis, detalhando abordagens alternativas para cada subproblema encontrado no processo de agregação.

A framework foi aplicada a quatro conjuntos de dados públicos de diversas áreas de negócio e a um estudo de caso na educação com dados da Universidade do Porto. Em cada caso, foram exploradas diferentes abordagens de agregação de modelos, ilustrando várias instanciações do processo.
O processo de agregação de modelos revelou que os modelos consensuais resultantes são frequentemente incompletos, ou seja, não conseguem cobrir todo o espaço de decisão, o que pode comprometer o seu propósito. Para abordar o problema da incompletude, são exploradas duas novas metodologias: uma baseia-se na geração de conjuntos de dados sintéticos seguida de treino de árvores de decisão, enquanto a outra utiliza um algoritmo especializado concebido para construir uma árvore de decisão diretamente a partir de dados agregados (i.e., simbólicos).

A eficácia destas metodologias na geração de modelos consensuais completos a partir de conjuntos de regras incompletos é avaliada nos cinco conjuntos de dados. Os resultados empíricos demonstram a viabilidade de superar a incompletude, constituindo um contributo para a área da síntese de conhecimento e modelação com árvores de decisão. Contudo, foram identificados compromissos entre a completude e a interpretabilidade, bem como entre o desempenho preditivo e a fidelidade dos modelos consensuais.

Globalmente, esta investigação aborda uma lacuna crítica na literatura, fornecendo um framework para sintetizar conhecimento a partir de múltiplos modelos de árvores de decisão, com particular foco no desafio da incompletude. As conclusões têm implicações significativas para organizações que procuram usar modelos especializados, obtendo também uma compreensão holística do fenómeno analisado.

Palavras chave: interpretability; rule-based models; model merging framework; decision trees; completeness.

Provas de Doutoramento em Engenharia Informática: ”Intelligent Ticket Management Assistant for Helpdesk Operations”

Candidato:

Leonardo da Silva Ferreira

Data, Hora e Local:

13 de junho de 2025, às 9:30, Sala de Atos da Faculdade de Engenharia da Universidade do Porto

Presidente do Júri:

Doutor Pedro Nuno Ferreira da Rosa da Cruz Diniz, Professor Catedrático, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto

Vogais:

Doutor Pedro Manuel Henriques da Cunha Abreu, Professor Associado com Agregação, Departamento de Engenharia Informática, Faculdade de Ciência e Tecnologia da Universidade de Coimbra;

Doutor Paulo Jorge Freitas de Oliveira Novais, Professor Catedrático, Departamento de Informática, Escola de Engenharia da Universidade do Minho;

Doutor Carlos Manuel Milheiro de Oliveira Pinto Soares, Professor Associado, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto;

Doutora Ana Paula Cunha da Rocha, Professora Associada, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto;

Doutor Daniel Augusto Gama de Castro Silva, Professor Auxiliar, Departamento de Engenharia Informática, Faculdade de Engenharia da Universidade do Porto (Orientador).

A tese foi coorientada pelo Professor Mikel Uriarte Itzazelaia, Professor Associado da Escuela de Ingeniería de Bilbao, Universidad del País Basco.

Resumo:

A evolução dinâmica da internet, particularmente em setores como serviços multimédia, computação na cloud, internet of things, simulação, e inteligência artificial, levou a que as empresas tenham assistido a uma expansão significativa dos seus serviços e mercados. No entanto, este crescimento também expôs diversas vulnerabilidades que ameaçam a confidencialidade, integridade e disponibilidade dos dados organizacionais e pessoais. Enquanto os especialistas trabalham para responder aos alertas gerados por sistemas de segurança, a inteligência artificial tem introduzido novas formas de comprometer a segurança, variando desde métodos simples e de baixo custo até ataques altamente sofisticados. Abordagens de baixo custo incluem, por exemplo, phishing e password spraying, que exploram falhas humanas e senhas frágeis. Por outro lado, ameaças mais complexas, como os advanced persistent attacks e zero-day exploits, exigem conhecimento e recursos, sendo frequentemente direcionados a sistemas críticos. Várias organizações dependem de centros de helpdesk de cibersegurança, sejam internos ou subcontratados, para gerir incidentes. Contudo, estes centros enfrentam dificuldades em responder de forma eficaz devido à sobrecarga de dados e escassez de operadores qualificados.

Esta dissertação aborda a carência de operadores especializados e o elevado volume de incidentes enfrentados pelas operações de helpdesk, propondo o desenvolvimento de um assistente de gestão de tickets para apoiar operadores humanos na resolução destes incidentes. A plataforma incorpora um sistema de recomendação que, dependendo do contexto, identifica o par operador-procedimento mais rápido para cada incidente, melhorando continuamente com cada tratamento realizado. Para garantir a privacidade dos dados, o sistema de recomendação é treinado com dados artificiais gerados por um gerador de dados personalizado. Além disso, a tese explora a possibilidade de melhorar este assistente com funcionalidades de automated machine learning para prever tickets futuros. Esta funcionalidade pode auxiliar gestores na antecipação da carga de trabalho e na adaptação proativa das suas equipas de segurança.

O desenvolvimento desta framework é realizada em colaboração com a empresa de cibersegurança S21sec, que disponibilizou estruturas e taxonomias de dados históricos anonimizados relacionados com o tratamento de incidentes. No entanto, devido à ausência de informação granular sobre a resolução dos incidentes e informação relacionada com o conjunto de dados partilhados e à necessidade de preservar a privacidade, as técnicas de geração de dados sintéticos tornam-se essenciais. O gerador implementado cria dados artificiais que replicam distribuiçôes semelhantes às dos dados reais, ao mesmo tempo que simula processos do mundo real, incluindo priorização de tickets, agendamento e tratamento.

O gerador de dados artificiais é avaliado pela sua eficiência em replicar as características de conjuntos de dados do mundo real, através de métricas de similaridade como Hellinger distance e Kullback-Leibler divergence. Além disso, são explorados vários cenários de agendamento de tickets, variando o número de operadores e a sua distribuição em três turnos de trabalho. Os resultados demonstram que esta ferramenta consegue replicar tickets com diferentes distribuições e durações de tratamento, derivadas dos dados reais. Adicionalmente, este gerador permite a simulação de operações reais de helpdesk, proporcionando uma base sólida para explorar diversos contextos operacionais sem comprometer a privacidade dos mesmos. A análise do agendamento de tickets mostra consistentemente que cenários caracterizados por um grande desequilíbrio nos turnos e com menos operadores levam a tempos de espera mais longos e a mais tickets agendados para tratamento posterior.

O sistema de recomendação é testado em duas vertentes: escalabilidade e impacto no tratamento de tickets. A primeira fase utiliza diversos conjuntos de dados de teste com tamanhos e números de operadores diferentes, analisados com métricas como o tempo médio de recomendação e memória consumida. Por outro lado, o impacto no tratamento de tickets é examinado considerando as melhorias nos tempos de espera dos tickets antes de serem atribuídos a um operador e o tempo de resposta necessário para a sua resolução, utilizando diferentes graus de aceitação das recomendações. Os resultados indicam que o número de operadores que o sistema de recomendação utiliza tem um impacto ligeiramente superior na sua escalabilidade em comparação com o número de tickets de teste. Ambas as características mostram um padrão de crescimento linear semelhante em relação às métricas referidas, sendo que o número de operadores apresenta um maior declive. A integração deste sistema de recomendação no tratamento de tickets reduziu o tempo médio de resposta entre 37.9\% e 45.1\% e o tempo médio de espera entre 62.2\% e 63.2\%, assumindo que os operadores aceitam sempre as recomendações. Com taxas de aceitação de recomendações variáveis, o tempo médio de espera mantém-se constante, enquanto a melhoria no tempo de resposta varia entre 0.4\% e 11.7\%.

A potencial aplicação de automated machine learning para a análise preditiva é explorada através de um estudo onde as decisões relativamente à dimensionalidade das equipas recomendadas pelo sistema são comparadas com os resultados esperados. Este estudo avalia o sistema com base na precisão das previsões e na sua capacidade de sugerir ajustes no tamanho das equipas. Entre as distribuições de conjuntos de dados testadas, os modelos treinados com dados de três anos superaram os treinados com dados de quatro anos, apresentando um erro médio mais baixo ao utilizar dados reais sobre a frequência de tickets ao longo do ano. Relativamente às recomendações de dimensionalidade da equipa, incluindo a contratação ou despedimento de operadores, a ferramenta baseada em automated machine learning propôs frequentemente decisões estreitamente alinhadas com as esperadas no mesmo periodo.

Coletivamente, estes resultados mostram que as ferramentas propostas podem otimizar os fluxos de trabalho de tratamento de tickets em aplicações do mundo real, levando a um uso mais eficiente dos recursos e a uma redução dos atrasos operacionais. Além disso, a sua capacidade de simular operações do mundo real sem comprometer a privacidade permite que os centros de operações de segurança possam testar vários cenários e aperfeiçar as suas estratégias.

Palavras-chave: Helpdesk; Ticket; Cibersegurança; Dados Sintéticos; Sistemas Recomendação.