dc.contributor |
Universidade Federal de Santa Catarina |
pt_BR |
dc.contributor.advisor |
Wangenheim, Aldo von |
|
dc.contributor.author |
Binotto, Eduardo Korbes |
|
dc.date.accessioned |
2022-08-04T14:33:18Z |
|
dc.date.available |
2022-08-04T14:33:18Z |
|
dc.date.issued |
2022-07-20 |
|
dc.identifier.uri |
https://repositorio.ufsc.br/handle/123456789/237815 |
|
dc.description |
TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Sistemas de Informação. |
pt_BR |
dc.description.abstract |
Conforme as tecnologias de Machine Learning se tornam cada vez mais populares e evoluídas para resolver problemas do mundo real, surgem iniciativas para ensinar Machine Learning a estudantes já na Educação Básica, tendo como foco o desenvolvimento de modelos voltados à classificação de imagens. Como parte destas iniciativas estão sendo desenvolvidos também abordagens automatizadas de avaliação possibilitando um feedback ao aluno. Como parte destas abordagens de avaliação é importante também a identificação de imagens, que são utilizadas pelos alunos no no conjunto de dados para o treinamento de modelos, não apropriadas ao contexto educacional, caso contenham elementos como nudez, armas, violência, drogas, racismo, etc. Mesmo já existindo filtros de conteúdo não apropriados, quase todos os produtos são comerciais e/ou só abordam um tipo de conteúdo não apropriado, não sendo adequados para classificar vários tipos de categorias inapropriadas ao mesmo tempo. Esta falta de soluções automatizadas para identificar o uso de imagens inapropriadas pode, dependendo da quantidade de imagens coletadas, consumir tempo dos instrutores do curso, além de ser propícia a falhas humanas. Desta forma, o presente trabalho visa responder à seguinte pergunta de pesquisa: Como automatizar a identificação de imagens inapropriadas no contexto do ensino de Machine Learning na Educação Básica? Assim, tem-se como objetivo desenvolver uma solução de identificação de imagens inapropriadas, mediante a utilização de técnicas de Deep Learning para automatizar o processo de avaliação de imagens. A solução desenvolvida pode assim ser integrada no contexto de cursos da iniciativa Computação na Escola e auxiliar em assegurar que todas as imagens preparadas pelos estudantes sejam apropriadas. A solução desenvolvida ainda pode futuramente ser integrada à plataforma CodeMaster fazendo parte do processo de avaliação de modelos utilizado pela iniciativa Computação na Escola. |
pt_BR |
dc.description.abstract |
As technologies such as Machine Learning become more popular and evolve to solve real-world problems, initiatives emerge to teach Machine Learning to students already in K-12, focusing on the development of models aimed at image classification.
As part of these initiatives, automated assessment approaches are also being developed, enabling feedback to the student. As part of these assessment approaches, it is also important to identify images, which are used by students in the dataset for training their models, that are not appropriate for the educational context, if they contain elements such as nudity, weapons, violence, drugs, racism, etc. Even though inappropriate content filters already exist, almost all products are commercial and/or only address one type of inappropriate content, not being suitable for classifying several types of inappropriate categories at the same time. This lack of automated solutions to identify inappropriate images can, depending on the amount of images collected, consume time from course instructors, in addition to being prone to human error. In this way, the present work aims to answer the following research question: How to automate the classification of inappropriate images in the context of Machine Learning teaching in K-12? Thus, the objective is to develop a solution to identify inappropriate images, using Deep Learning techniques to automate the image evaluation process. The developed solution can be integrated into the context of courses from the Computação na Escola initiative and help to ensure that all images prepared by students are appropriate. The developed solution will be integrated into the CodeMaster platform in the future as part of the model evaluation process used by the Computação na Escola initiative. |
pt_BR |
dc.format.extent |
53 f. |
pt_BR |
dc.language.iso |
pt_BR |
pt_BR |
dc.publisher |
Florianópolis, SC |
pt_BR |
dc.rights |
Open Access |
|
dc.title |
Identificação de conteúdo não apropriado no contexto de ensino de machine learning na educação básica |
pt_BR |
dc.type |
TCCgrad |
pt_BR |
dc.contributor.advisor-co |
Wangenheim, Christiane Gresse von |
|