Um Modelo de Reputação Baseado em Testemunhos José Guedes Viviane Torres da Silva {jguedes,viviane}@inf.puc-rio.br
Planejamento das apresentações 1st : apresentação da abordagem proposta, com destaque para o sistema de reputação centralizado; apresentação do problema que será explorado. 2nd: mostrar de que forma outras abordagens tratam o problema; apresentar a solução para nossa abordagem 3rd: mostrar os resultados do uso do sistema de reputação centralizado em um cenário real © LES/PUC-Rio
Motivação Aplicações em que agentes podem violar normas Sistemas multi-agentes abertos Agentes precisam saber se outros agentes são confiáveis Agentes avaliam o comportamento de outros agentes Mau comportamento -> má reputação Bom comportamento -> boa reputação © LES/PUC-Rio
Trabalhos Relacionados Abordagens centralizadas Exemplos: eBay e Amazon Auctions Sistema calcula e disponibiliza reputações baseado nas avaliações dos participantes Vantagem: a reputação de um agente está sempre disponível Problema: a reputação é um valor global; os agentes utilizam avaliações feitas por terceiros Amazon Site. http://www.amazon.com World Wide Web (2006) eBay Site. http://www.ebay.com World Wide Web (2006) © LES/PUC-Rio
Trabalhos Relacionados Abordagens descentralizadas Reputação baseada em experiências diretas Cada agente avalia e armazena a reputação dos agentes com quem ele interagiu Exemplo: Regret System Vantagem: reputação é calculada e armazenada individualmente pelo próprio agente Problema: agentes não conhecem a reputação de outros agentes antes de interagir com ele Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy (2002) pp. 475-482 © LES/PUC-Rio
Trabalhos Relacionados Abordagens descentralizadas Reputação baseada em testemunhas Agentes compartilham com outros agentes suas experiências diretas Exemplos: Regret System e FIRE Model Vantagem: agentes podem saber a reputação de outros agentes sem ter interagido com ele Problema: processo de busca pode ser inviável Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy (2002) pp. 475-482 Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI) (2004) pp. 18-22 © LES/PUC-Rio
Trabalhos Relacionados Abordagens descentralizadas Reputação certificada Após uma interação, um agente solicita ao outro a avaliação e armazena localmente essas avaliações que serão utilizadas como referências em uma próxima interação Agente apresenta as avaliações aos agentes com quem tem intenção em interagir Exemplo: FIRE Model Vantagem: as avaliações estão sempre disponíveis Problema: a reputação certificada é superestimada, pois o agente seleciona somente as melhores avaliações Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI) (2004) pp. 18-22 © LES/PUC-Rio
Modelo Híbrido utiliza os benefícios das duas abordagens Abordagem Proposta Modelo Híbrido utiliza os benefícios das duas abordagens © LES/PUC-Rio
Sistema de reputação centralizado Defendants Reputation Se o agente for considerado culpado (percentual de culpa > 50%) Poder da norma -> normPower(ni) Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni) Percentual de culpa -> guiltPerc(aj,ni) Tempo -> remainingDays(aj,ni) defendantRep(aj) = 1 – ∑0<i<=k[ normPowerr(ni) * guiltPerc(aj,ni) * remainingDays(aj,ni) ] 0 <= valor da reputação <= 1 valor da reputação > 0.5, boa reputação valor da reputação <= 0.5, má reputação © LES/PUC-Rio
Sistema de reputação centralizado Witness Reputation Se o testemunho for falso (percentual de culpa <= 50%) Poder da norma -> normPower(ni) Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni) WitnessFactor -> normPowerrw(ni)=normPowerr(ni)* witnessFactor(ni) Percentual de culpa -> guiltPerc(aj,ni) Tempo -> remainingDays(aj,ni) witnessRep(aj) = 1 – ∑0<i<=k[ normPowerrw(ni) * guiltPerc(aj,ni) * remainingDays(aj,ni) ] 0 <= valor da reputação <= 1 valor da reputação > 0.5, boa reputação valor da reputação <= 0.5, má reputação © LES/PUC-Rio
Sistema de reputação centralizado Tipos de Reputação Global reputation Média das reputações defendant e witness de um determinado agente globalRep(aj) = [defendantRep(aj) + witnessRep(aj)] / 2 Role reputation Média das reputações defendant e witness de um agente enquanto desempenhava um determinado papel Norm reputation Para cada norma do sistema o agente tem uma reputação associada © LES/PUC-Rio
Sistema de reputação centralizado Agente A violou norma n1 em 01/04/2005 Today:01/04/2005 agente A nunca violou nenhuma norma Poder da norma -> normPower(ni) = 0.1 Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni) = 0.1 Percentual de culpa -> guiltPerc(aj,ni) = 100% = 1 Tempo -> remainingDays(aj,ni) -> Tempo total (n1) = 30 totalTime(ni)– passedDays(aj,ni) remainingDays(aj,ni)= ------------------------------- = 30-0/30 = 1 totalTime(ni) (firs day) defendantRep(aj) = 1 – ∑0<i<=k[ normPowerr(ni) * guiltPerc(aj,ni) * remainingDays(aj,ni) ] defendantRep(A) = 1 – 0.1 * 1 * 1 defendantRep(A) = 1 – 0.1*1*1 = 0.9 © LES/PUC-Rio
Problema Agentes que nunca violaram normas possuem reputação máxima Agentes que já violaram normas mas as violações não exercem mais influência na reputação também possuem reputação máxima Novos agentes também possuem reputação máxima Existem 3 situações diferentes quando o valor da reputação do agente é igual a 1 Como diferenciar as três situações ? © LES/PUC-Rio
Próximos passos pesquisar outros trabalhos tratamento dado aos novos agentes evolução do modelo híbrido reputação certificada aplicar a abordagem proposta em um caso real © LES/PUC-Rio
References Amazon Site. http://www.amazon.com World Wide Web (2006) eBay Site. http://www.ebay.com World Wide Web (2006) Grandison, T., Sloman, M.: A Survey of Trust in Internet Applications. IEEE Communications Surveys & Tutorials 3(4) (2000) Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI) (2004) pp. 18–22 Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy (2002) pp. 475-482 Silva, V., Lucena, C.: Governance in Multi-Agent Systems Based on Witnesses. Pontifical Catholic University of Rio de Janeiro (PUC-Rio). Rio de Janeiro - Brazil (2005) Systems (2002) Zacharia G. Collaborative reputation mechanisms for online communities. Master’s thesis, Massachusetts Institute of Technology (1999) © LES/PUC-Rio