observatoriohumanidadesdigitaisetica.files.wordpress.com€¦ · 3 x eiica: 18/06 – 22/06, 2018...
TRANSCRIPT
2
X EIICA – ENCONTRO INTERNACIONAL DE
INFORMAÇÃO, CONHECIMENTO E AÇÃO
Informação, Conhecimento, Ação Autônoma e Big
Data: Continuidade ou Revolução?
CADERNO DE RESUMOS
Marília: Universidade Estadual Paulista, 2018.
X EIICA – INTERNATIONAL MEETING ON
INFORMATION, KNOWLEDGE AND ACTION
Information, Knowledge, Autonomous Action and
Big Data: Continuity or Revolution?
BOOK OF ABSTRACTS
Marília: Universidade Estadual Paulista, 2018.
ISSN: 2447-7494
3
X EIICA: 18/06 – 22/06, 2018
Coordenação: Maria Eunice Quilici Gonzalez.
Organização: Maria Eunice Quilici Gonzalez, Mariana Claudia Broens, Daniel
Martínez-Ávila, Maria José Jorente, Maria Cláudia Cabrini Grácio, Hércules de
Araújo Feitosa.
Comissão Científica: Rosa San Segundo, Melodie Fox, Marcos Antonio Alves,
Lauro Frederico Barbosa da Silveira, Juan Carlos Fernández-Molina, Mariana
Matulovic, Frederick Adams, Antonio García Gutiérrez, Maria José Vicentini
Jorente, Placida Amorim da Costa Santos, Ely Francina Tannuri de Oliveira,
Leilah Santiago Bufrem, Walter Moreira, Silvana Aparecida Borsetti Gregório
Vidotti, Natália Bolfarini Tognoli, Maria Cláudia Cabrini Grácio, José Augusto
Chaves Guimarães, Carlos Cândido de Almeida, Daniel Martínez-Ávila, Maria
Eunice Quilici Gonzalez.
Comissão de Trabalho: Alain Hidalgo, Amanda Mendes, Ana Paula de Carvalho
Gomes, Ana Paula Talin Bissoli, Barbara Tavares, Bruna Marcela Furlan, Caio
Saraiva Coneglian, Camila da Cruz Silva, Carla Conforto de Oliveira, Caroline
Gomes de Oliveira, Edna Alves de Souza, Emanuelly Rodrigues, Emily Micaeli
Pereira Guedes, Emily Miriele Abreu Silva, Ester Luiza de Oliveira, Felipe
Eleutério, Fernanda Lucchetti Monteiro, Gabriel Henrique Ordones Ferreira de
Freitas, Julia Rodrigues de Lima, Leonardo Francisco de Andrade, Letícia de
Jesus Nascimento, Luciana Gomes, Manoela Ferreira da Silva, Marcos Antonio
Alves, Marcus Rei de Lima Alves, Max Rogério Vicentini, Mirella Fernanda
Leite Gil, Natacha Paruker, Polyana Silva dos Santos, Renata Silva Souza,
Ricardo Peraça Cavassane, Rúbia Martins, Sabrina Balthazar Ramos Ferreira,
Samantha Augusta dos Santos de Jesus, Sofia Curuci Pegoraro, Thiago Ferreira
de Oliveira, Tiago Hideki Manzati Kabutomori, Túlio César Martos, Valdirene
Pascoal, Valéria Martins Bonfuoco, Yara Maria Cinque.
Secretaria Geral: Edna Bonini de Souza.
Apoio Técnico: Eder Ludovico de Matos, Renato Geraldi.
Realização: SBCC (Sociedade Brasileira de Ciência Cognitiva), ISKO
(International Society for Knowledge Organization – Capítulo Brasil),
Departamento de Filosofia da Unesp, Programa de Pós-Graduação em Filosofia
da Unesp, Departamento de Ciência da Informação da Unesp, Programa de Pós-
Graduação em Ciência da Informação da Unesp.
Apoio: Unesp, Staepe, Proex, Pet – Biblioteconomia, CAPES, FAPESP, CNPq.
Local: Faculdade de Filosofia e Ciências da Unesp – Marília, São Paulo, Brasil.
4
CADERNO DE RESUMOS DO X EIICA
Organização: Maria Eunice Quilici Gonzalez, Mariana Claudia Broens, Daniel
Martínez-Ávila, Ricardo Peraça Cavassane, Renata Silva Souza.
Revisão: Ricardo Peraça Cavassane, Renata Silva Souza, Edna Alves de Souza,
Max Rogério Vicentini.
Marília: Universidade Estadual Paulista, 2018.
ISSN: 2447-7494.
5
X ENCONTRO INTERNACIONAL DE INFORMAÇÃO,
CONHECIMENTO E AÇÃO
Informação, Conhecimento, Ação Autônoma e Big Data:
Continuidade ou Revolução?
PROGRAMAÇÃO
18 de junho, segunda-feira
08:30h - 12:00h (Sala 64)
MINICURSO 1: Tópicos Especiais de Informação, Organização do
Conhecimento e Big Data
Fidelia Ibekwe-SanJuan (Universidade de Aix-Marseille / França), Maria
Eunice Quilici Gonzalez (UNESP / Marília), Daniel Martínez-Ávila (UNESP
/ Marília)
Moderadora: Edna Alves de Souza (UNESP / Marília)
14:00h - 15:30h (Sala 64)
WORKSHOP 1: Big Data e Complexidade
Leonardo Lana de Carvalho (UFVJM), João Antonio de Moraes (FAJOPA /
UNICAMP), Marcos Antônio Alves (UNESP / Marília)
Moderador: Sérgio Nunes (UFPA)
15:30h - 16:00h (Sala 64)
COFFEE BREAK
16:00h - 18:00h (Sala 64)
WORKSHOP 2: Traduções entre lógicas: contribuições para o estudo da
informação e do Big Data
Ítala Loffredo D’Ottaviano (CLE / UNICAMP), Hércules de Araújo Feitosa
(UNESP / Bauru)
Moderadora: Nathália Pantaleão (UNICAMP)
19 de junho, terça-feira
08:30h - 12:00h (Sala 64)
MINICURSO 1: Tópicos Especiais de Informação, Organização do
Conhecimento e Big Data
Fidelia Ibekwe-SanJuan (Universidade de Aix-Marseille / França), Maria
Eunice Quilici Gonzalez (UNESP / Marília), Daniel Martínez-Ávila (UNESP
/ Marília)
6
Moderadora: Edna Alves de Souza (UNESP / Marília)
14:30h - 16:30h (Sala 64)
WORKSHOP 3: Big Data, Informação e a Dinâmica da Formação de
Opiniões: um Estudo sobre Narrativas Sociais
Jorge Louçã (Universidade de Lisboa / Portugal), Mariana Claudia Broens
(UNESP / Marília)
Moderadora: Ítala Loffredo D’Ottaviano (CLE / UNICAMP)
20 de junho, quarta-feira
08:00h - 08:30h (Anfiteatro I)
CREDENCIAMENTO
08:30h - 09:00h (Anfiteatro I)
SOLENIDADE DE ABERTURA
09:00h - 10:00h (Anfiteatro I)
CONFERÊNCIA PLENÁRIA
Narrativas sociais acerca da violência de gênero na sociedade brasileira
Jorge Louçã (Universidade de Lisboa / Portugal)
Moderadora: Marta Lígia Valentim (UNESP / Marília)
10:00h - 10:30h (Sala 64)
COFFEE BREAK E SESSÕES DE PÔSTERES
10:30h - 12:00h (Anfiteatro I)
MESA REDONDA: Informação, Tecnologia e Ação Autônoma da Era dos Big
Data
Big data na perspectiva das Ciências da Informação
Maria Claudia Cabrini Gracio (UNESP / Marília)
Confiança mútua e vigilância: uma revolução na era dos Big Data?
Mariana Claudia Broens (UNESP / Marília)
Big Data: Estudo de Caso de Falácias Lógicas pelo Judiciário
Ítala Loffredo D’Ottaviano (CLE/UNICAMP)
Moderador: José Artur Quilici-Gonzalez (UFABC)
14:30h - 16:00h (Anfiteatro I)
MESA REDONDA: Big Data, redes sociais e organização do conhecimento
Terceira Margem: o conhecimento nas redes sociais
Izabel Patrícia Meister (UNIFESP / São Paulo)
Redes sociais digitais e a esfera pública: fake news e a manipulação da
opinião coletiva
7
Magaly Parreira do Prado (Faculdade Cásper Líbero / São Paulo)
Conhecimento, Inteligência Organizacional e Big Data: tendências e
perspectivas neste campo
Marta Lígia Valentim (UNESP / Marília)
Moderador: Max Rogério Vicentini (UEM - UNESP / Marília)
16:00h - 17:00h (Sala 64)
COFFEE BREAK E SESSÕES DE PÔSTERES
19:00h - 19:30h (Anfiteatro I)
APRESENTAÇÃO CULTURAL: Coral “Boca Santa”
19:30h - 21:30h (Anfiteatro I)
CONFERÊNCIAS PLENÁRIAS
Big data, escolha de linguagem, e identidades no Instagram entre falantes de
legado DMV
Jose Magro (Universidade de Maryland / Estados Unidos)
O DAOs dos DAOs: uma revolução social para o século XXI?
Paul Bourgine (École Polytechnique / França)
Moderador: Ricardo Tassinari (UNESP / Marília)
21 de junho, quinta-feira
08:30h - 09:30h (Anfiteatro I)
CONFERÊNCIA PLENÁRIA
As armadilhas da pesquisa movida por Big Data: uma avaliação
Fidelia Ibekwe-SanJuan (Aix-Marseille University / França)
Moderador: Daniel Martínez-Ávila (UNESP / Marília)
09:30h - 10:30h (Sala 64)
COFFEE BREAK E SESSÕES DE PÔSTERES
10:30h - 12:00h (Anfiteatro I)
MESA REDONDA: Big Data e (Des)Informação
Desinformação, Distopia e Pós-Realidade nas Redes Sociais
Anderson Vinícius Romanini (ECA / USP)
Considerações Semióticas sobre Fake News e Alternative Facts – verdade e
ética no universo dos big data
Ivo Assad Ibri (PUC / São Paulo)
Acesso à informação na língua materna e “Big Data”: reflexões entre lusófonos
Claudia Wanderley (CLE / UNICAMP)
Moderadora: Maria Claudia Cabrini Gracio (UNESP / Marília)
8
14:30h - 16:00h (Salas 12, 60, 61, 62 e 64)
SESSÕES DE COMUNICAÇÃO
16:00h - 17:00h (Sala 64)
COFFEE BREAK E SESSÕES DE PÔSTERES
19:30h - 21:30h (Anfiteatro I)
CONFERÊNCIAS PLENÁRIAS
A ação consciente humana e a ação manipuladora autônoma: reflexões sobre a
tecnologia e a sua evolução
Guiou Kobayashi (UFABC)
Explicação científica: causalidade ou correlação na era dos big data?
Max Rogério Vicentini (UEM - UNESP / Marília)
Moderadora: Mariana Claudia Broens (UNESP / Marília)
22 de junho, sexta-feira
08:30h - 10:00h (Anfiteatro I)
CONFERÊNCIAS PLENÁRIAS
Big Data, Merging, Re-Contextualização, e Semântica de Base de Dados
Birger Hjorland (Universidade de Copenhagen / Dinamarca)
Classificando a LOD Cloud: Aprofundando no Gráfico de Conhecimento
Daniel Martínez-Ávila (UNESP / Marília)
Sinecocultura e Sistema de Gerenciamento de Megadiversidade
Masatoshi Funabashi (Sony Computer Science Laboratories / Japão)
Moderadora: Maria Eunice Quilici Gonzalez (UNESP / Marília)
10:00h - 10:30h (Sala 64)
COFFEE BREAK E SESSÕES DE PÔSTERES
10:30h - 12:00h (Anfiteatro I)
MESA REDONDA: Big Data, redes sociais e linguagem: algum acréscimo ao
estudo da informação?
Ciência da Informação em transformação: Big data e redes sociais
Renato Rocha Souza (Fundação Getúlio Vargas / Rio de Janeiro)
O domínio Bigdatiano
Sérgio Nunes (UFPA)
Moderador: Kleber Cecon (UNESP / Marília)
14:00h - 15:30h (Salas 12, 60, 61, 62 e 64)
SESSÕES DE COMUNICAÇÃO
15:30h - 16:30h (Anfiteatro I)
9
CONFERÊNCIAS PLENÁRIAS
Uma análise do impacto dos Big data na sociedade
Ricardo César Gonçalves Santana (UNESP / Tupã)
Aprender a aprender em tempos de Big Data
Plácida Leopoldina Ventura Amorim da Costa Santos (UNESP / Marília)
Moderadora: Rachel Vesu Alves (UNESP / Marília)
16:30h - 17:00h (Anfiteatro I)
COFFEE BREAK E SESSÕES DE PÔSTERES
19:00h - 19:30h (Anfiteatro I)
APRESENTAÇÃO CULTURAL: Banda do GAEC
19:30h - 21:00h (Anfiteatro I)
CONFERÊNCIA DE ENCERRAMENTO
As Novas Biotecnologias e a Questão Antropológica: Implicações Morais
Ivan Domingues (UFMG)
Debatedor: Alfredo Pereira Jr. (UNESP / Marília - Botucatu)
21:00h - 21:30h (Anfiteatro I)
AVALIAÇÃO GERAL DO EVENTO E SORTEIO DE PRÊMIOS
Afinal – Big Data: Continuidade ou Revolução?
Maria Eunice Quilici Gonzalez (UNESP / Marília), Daniel Martínez Ávila
(UNESP / Marília)
10
X INTERNATIONAL MEETING ON INFORMATION,
KNOWLEDGE AND ACTION
Information, Knowledge, Autonomous Action and Big Data:
Continuity or Revolution?
PROGRAM
June 18, Monday
08:30h - 12:00h (Room 64)
SHORT COURSE 1: Special Topics on Information, Knowledge Organization
and Big Data
Fidelia Ibekwe-SanJuan (Aix-Marseille University / France), Maria Eunice
Quilici Gonzalez (UNESP / Marília), Daniel Martínez-Ávila (UNESP /
Marília)
Chair: Edna Alves de Souza (UNESP / Marília)
14:00h - 15:30h (Room 64)
WORKSHOP 1: Big Data and Complexity
Leonardo Lana de Carvalho (UFVJM), João Antonio de Moraes (FAJOPA /
UNICAMP), Marcos Antônio Alves (UNESP / Marília)
Chair: Sérgio Nunes (UFPA)
15:30h - 16:00h (Room 64)
COFFEE BREAK
16:00h - 18:00h (Room 64)
WORKSHOP 2: Translations between logics: contributions to the studies of
information and Big Data
Ítala Loffredo D’Ottaviano (CLE / UNICAMP), Hércules de Araújo Feitosa
(UNESP / Bauru)
Chair: Nathália Pantaleão (UNICAMP)
June 19, Tuesday
08:30h - 12:00h (Room 64)
SHORT COURSE 1: Special Topics on Information, Knowledge Organization
and Big Data
Fidelia Ibekwe-SanJuan (Aix-Marseille University / France), Maria Eunice
Quilici Gonzalez (UNESP / Marília), Daniel Martínez-Ávila (UNESP /
Marília)
11
Chair: Edna Alves de Souza (UNESP / Marília)
14:30h - 16:30h (Room 64)
WORKSHOP 3: Big Data, Information, and Opinion Formation Dynamics:
Study on Social Narratives
Jorge Louçã (Lisbon University / Portugal), Mariana Claudia Broens
(UNESP / Marília)
Chair: Ítala Loffredo D’Ottaviano (CLE / UNICAMP)
June 20, Wednesday
08:00h - 08:30h (Auditorium I)
REGISTRATION
08:30h - 09:00h (Auditorium I)
OPENING SOLEMNITY
09:00h - 10:00h (Auditorium I)
KEYNOTE SPEAKER
Social narratives regarding street gender harassment in the Brazilian society
Jorge Louçã (Lisbon University / Portugal)
Chair: Marta Lígia Valentim (UNESP / Marília)
10:00h - 10:30h (Room 64)
COFFEE BREAK AND POSTERS SESSIONS
10:30h - 12:00h (Auditorium I)
SYMPOSIUM: Information, Technology and Autonomous Action in the Age of
Big Data
Big data from the perspective of the Sciences of Information
Maria Claudia Cabrini Gracio (UNESP / Marília)
Mutual trust and vigilance: a revolution in the age of Big Data
Mariana Claudia Broens (UNESP / Marília)
Big Data: Case Study of Logical Fallacies by the Judiciary
Ítala Loffredo D’Ottaviano (CLE/UNICAMP)
Chair: José Artur Quilici-Gonzalez (UFABC)
14:30h - 16:00h (Auditorium I)
SYMPOSIUM: Big Data, social networks and knowledge organization
Third Margin: knowledge in social networks
Izabel Patrícia Meister (UNIFESP / São Paulo)
Digital social networks and the public sphere: fake news and collective opinion
manipulation
12
Magaly Parreira do Prado (Cásper Líbero Faculty / São Paulo)
Knowledge, Organizational Intelligence and Big Data: trends and perspectives
in this field
Marta Lígia Valentim (UNESP / Marília)
Chair: Max Rogério Vicentini (UEM - UNESP / Marília)
16:00h - 17:00h (Room 64)
COFFEE BREAK AND POSTERS SESSIONS
19:00h - 19:30h (Auditorium I)
ARTISTIC PRESENTATION: “Boca Santa” Choir
19:30h - 21:30h (Auditorium I)
KEYNOTE SPEAKERS
Big data, language choice, and identities in Instagram among DMV legacy
speakers
Jose Magro (University of Maryland / USA)
The DAO of DAOs: a social revolution for the XXI century?
Paul Bourgine (École Polytechnique / France)
Chair: Ricardo Tassinari (UNESP / Marília)
June 21, Thursday
08:30h - 09:30h (Auditorium I)
KEYNOTE SPEAKER
The traps of Big data-driven research: a review
Fidelia Ibekwe-SanJuan (Aix-Marseille University / France)
Chair: Daniel Martínez-Ávila (UNESP / Marília)
09:30h - 10:30h (Room 64)
COFFEE BREAK AND POSTERS SESSIONS
10:30h - 12:00h (Auditorium I)
SYMPOSIUM: Big Data and (Dis)Information
Disinformation, Dystopia and Post-Reality in Social Networks
Anderson Vinícius Romanini (ECA / USP)
Semiotic Considerations on Fake News and Alternative Facts – ethics and truth
in the universe of big data
Ivo Assad Ibri (PUC / São Paulo)
Access to information in the native language and "Big Data": reflections
between lusophones
Claudia Wanderley (CLE / UNICAMP)
Chair: Maria Claudia Cabrini Gracio (UNESP / Marília)
13
14:30h - 16:00h (Rooms 12, 60, 61, 62 e 64)
COMMUNICATIONS SESSIONS
16:00h - 17:00h (Room 64)
COFFEE BREAK AND POSTERS SESSIONS
19:30h - 21:30h (Auditorium I)
KEYNOTE SPEAKERS
Human conscious action and autonomous manipulative action: reflections on
technology and its evolution
Guiou Kobayashi (UFABC)
Scientific explanation: causality or correlation in the age of big data?
Max Rogério Vicentini (UEM - UNESP / Marília)
Chair: Mariana Claudia Broens (UNESP / Marília)
June 22, Friday
08:30h - 10:00h (Auditorium I)
KEYNOTE SPEAKERS
Big Data, Merging, Re-Contextualization, and Database Semiotics
Birger Hjorland (Copenhagen University / Denmark)
Classifying the LOD Cloud: Digging Into the Knowledge Graph
Daniel Martínez-Ávila (UNESP / Marília)
Synecoculture and Megadiversity Management System
Masatoshi Funabashi (Sony Computer Science Laboratories / Japan)
Chair: Maria Eunice Quilici Gonzalez (UNESP / Marília)
10:00h - 10:30h (Room 64)
COFFEE BREAK AND POSTERS SESSIONS
10:30h - 12:00h (Auditorium I)
SYMPOSIUM: Big Data, social networks and language: any addition to the
study of information?
Science of Information in transformation: Big data and social networks
Renato Rocha Souza (Getúlio Vargas Foundation / Rio de Janeiro)
The Bigdatian domain
Sérgio Nunes (UFPA)
Chair: Kleber Cecon (UNESP / Marília)
14:00h - 15:30h (Rooms 12, 60, 61, 62 e 64)
COMMUNICATIONS SESSIONS
14
15:30h - 16:30h (Auditorium I)
KEYNOTE SPEAKERS
An analysis of the impact of Big data on society
Ricardo César Gonçalves Santana (UNESP / Tupã)
Learning to learn in times of Big Data
Plácida Leopoldina Ventura Amorim da Costa Santos (UNESP / Marília)
Chair: Rachel Vesu Alves (UNESP / Marília)
16:30h - 17:00h (Auditorium I)
COFFEE BREAK AND POSTERS SESSIONS
19:00h - 19:30h (Auditorium I)
ARTISTIC PRESENTATION: GAEC’s Band
19:30h - 21:00h (Auditorium I)
CLOSING SPEAKER
New biotechnologies and the anthropological question: moral implications
Ivan Domingues (UFMG)
Chair: Alfredo Pereira Jr. (UNESP / Marília - Botucatu)
21:00h - 21:30h (Auditorium I)
GENERAL EVALUATION OF THE EVENT AND PRIZE DRAW
After all – Big Data: Continuity or Revolution?
Maria Eunice Quilici Gonzalez (UNESP / Marília), Daniel Martínez Ávila
(UNESP / Marília)
15
Conferências Plenárias, Mesas Redondas,
Mini-Cursos e Workshops
Keynote Speakers, Symposiums,
Short Courses and Workshops
16
A DAO DAS DAOS: UMA REVOLUÇÃO SOCIAL PARA O
SÉCULO XXI?
THE DAO OF DAOS: A SOCIAL REVOLUTION FOR THE XXI
CENTURY?
Conferência Plenária / Keynote Speaker
BOURGINE, Paul.
École Polytechnique / França
O conceito de DAO [organização autônoma descentralizada] tem
primeiro que ser compreendido juntamente com o conceito de “autonomia
social” de Cornelius Castoriadis, i.e. em que organizações em todos os níveis
são autoconstituídas enquanto produzem sua própria constituição e a modificam
se necessário. Ao aplicar este conceito fundamental a todas as organizações em
todos os níveis, cada organização se torna de fato uma DAO das DAOs. Tal
conceito de DAO das DAOs pode perfeitamente se aplicar a um agrupamento
existente de agrupamentos científicos, de cooperativas, de associações, de
ONGs, etc. É digno de nota que tais agrupamentos frequentemente adotam os 17
Objetivos para o Desenvolvimento Sustentável (SDG) das Nações Unidas
(ONU) incluindo o “Princípio da equidade” entre humanos e para suas
interações com a ecosfera. Como tal, seu comportamento local e global vão na
direção de um “equilíbrio cooperativo Nash-Pareto” entre humanos e a
Natureza. “Equilíbrio cooperativo Nash-Pareto”, bem como “equilíbrio não-
cooperativo Nash-Pareto” são evolucionariamente estáveis quando adquirem
muitas interações mútuas. Na segunda revolução da Internet, uma DAO está
produzindo seu contrato inteligente, e inversamente. O contrato inteligente está
especificando as regras de interações entre os agentes, as regras usadas durante
suas interações ou eventos e o compartilhamento do valor agregado, i.e. um tipo
especial de constituição. Ademais, essas especificações são traduzidas em um
programa de computador que escreve em um blockchain (cadeia de blocos não-
modificável) toda a história das interações. Esta abertura garante a honestidade
das interações e a confiança dentro e fora da DAO. O contrato inteligente pode
ser modificado quando o comitê representativo principal da DAO decida que é o
caso de fazê-lo. Como tal, uma DAO, bem como uma DAO das DAOs da
segunda revolução da Internet são casos particulares da “autonomia social”. O
que está trazendo especialmente a DAO das DAOs da segunda revolução da
Internet à DAO das DAOs existente e trabalhando na direção das 17 SDG da
ONU? Pelo “processo estigmérgico” de gravação de tudo que é de interesse de
acordo com um protocolo rigoroso, eles se tornarão uma valiosa fonte de big
17
data, informação e conhecimento científico, que por sua vez catalisará os
movimentos na direção dos 17 SDG da ONU. O que os humanos terão não é
apenas “autonomia social”, “equidade” e “simbiose com a Natureza”, mas
também a sociedade do conhecimento integrado por evitar que o resultado de
suas ações e estratégias individuais e coletivas seja contrário às suas próprias
intenções.
The concept of DAO has first to be understood along the concept of
"social autonomy" of Cornelius Castoriadis, i.e. where organizations at all levels
are self-constituted as producing their own constitution and modifying it if
necessary. By applying this fundamental concept at all organizations at all
levels, each organization becomes indeed a DAO of DAOs. Such concept of
DAO of DAOs can apply perfectly to existing cluster of scientific clusters, of
cooperatives, of associations, of ONG, etc. It is remarkable to notice here, that
such cluster are frequently adopting the 17 Sustainable Development Goals
(SDG) of United Nations (UN) including the "Equity principle" between
humans and for their interactions with the ecosphere. As such, their local and
global behavior are toward a "cooperative Nash-Pareto equilibrium" between
humans and with Nature. "Cooperative Nash-Pareto" as well as "non-
cooperative Nash-Pareto equilibrium" are evolutionary stable when attained
with a lot of mutualistic interactions. In the 2nd internet revolution, a DAO is
producing its smart contract and conversely. The smart contract is specifying the
interactions rules between the agents, the rules used during their interactions or
events and the sharing of the added value, i.e. a special kind of constitution.
Furthermore, these specifications are translated into a computer program that is
writing on a blockchain (unmodifiable chain of block) the whole history of the
interactions. These openness guarantees the honesty of interactions and the trust
inside and outside the DAO. The smart contract can be changed when the main
representative committee of the DAO decided that it is the case to do. As such, a
DAO as well as a DAO of DAOs of the 2nd internet revolution are particular
cases of "social autonomy". What is specially bringing the DAO of DAOs of the
2nd internet revolution to the existing DAO of DAOs working in the direction
of the 17 UN SDG? By the "stigmergic process" of recording everything of
interest according to a rigorous protocol, they will become a great valuable
source of big data, information and scientific knowledge, that in return will
catalyse the moves in directions of the 17 UN SDG. What humans will have is
not only "social autonomy", "equity" and "symbiosis with Nature" but also the
society of integrated knowledge for avoiding that the result of their individual
and collective actions and strategies will be contrary to their proper intentions.
18
CONSEQUÊNCIAS ÉTICAS DA VIGILÂNCIA DA OPINIÃO NA
ERA DOS BIG DATA: O FENÔMENO DE “VIGILÂNCIA
DISTRIBUÍDA”
ETHICAL CONSEQUENCES OF OPINION SURVEILLANCE IN
THE AGE OF BIG DATA: THE PHENOMENON OF
"DISTRIBUTED SURVEILLANCE"
Parte da Mesa Redonda “Informação, Tecnologia e Ação Autônoma da Era
dos Big Data” / Part of the Symposium “Information, Technology and
Autonomous Action in the Age of Big Data”
BROENS, Mariana Claudia.
Unesp / Marília
Neste trabalho investigaremos consequências éticas decorrentes de uma
nova forma de vigilância da opinião, emergente das interações em redes sociais
digitais, que denominamos “vigilância distribuída”. Tradicionalmente,
processos de controle da opinião ocorriam de modo centralizado por iniciativa
de detentores do poder em sociedades autoritárias, na tentativa de direcionar a
conduta dos agentes (Macnish, 2017). Atualmente, no entanto, estão ocorrendo
processos descentralizados, distribuídos, de vigilância e monitoramento de
opinião nas redes sociais virtuais, mesmo em sociedades supostamente
democráticas. O problema que guiará nossa investigação pode ser assim
formulado: Quais são as possíveis implicações éticas dessa forma de vigilância
distribuída nos processos de manifestação da opinião em redes sociais? Em
especial, será focalizado o uso de Big Data na vigilância distribuída da opinião
em redes sociais digitais.
In this work we will investigate the ethical consequences of a new form
of opinion surveillance, emerging from the interactions in digital social
networks, which we call "distributed surveillance". Traditionally, processes of
opinion control were centralized based on the initiative of power holders in
authoritarian societies, in an attempt to direct the conduct of agents (Macnish,
2017). Nowadays, however, there are decentralized, distributed, forms of
surveillance and opinion monitoring in virtual social networks, even in
supposedly democratic societies. The problem that will guide our investigation
can be formulated as follows: What are the possible ethical implications of this
form of distributed surveillance in the processes of manifesting opinions in
social networks? In particular, the use of Big Data to promote distributed
19
surveillance on the dynamics of opinion formation in digital social networks
will be focused.
INFORMAÇÃO, BIG DATA E COMPLEXIDADE
INFORMATION, BIG DATA AND COMPLEXITY
Workshop
CARVALHO, Leonardo Lana de.
UFVJM
MORAES, João Antônio de.
Fajopa, Unicamp
ALVES, Marcos Antônio.
Unesp / Marília
As diversas teorias e modelos sobre a cognição podem ser agrupados
em pelo menos quatro grandes classes: cognitivismo, conexionismo, enativismo
e sistemas complexos. Entendemos que estas classes não são excludentes, mas
que existe uma perspectiva de acumulação e ampliação do conhecimento.
Análises enativas sobre a máquina de Turing, sobre o conceito de informação e
o de processos não excluem assim o “processamento da informação”, mas dão
uma nova perspectiva teórica a partir da qual uma concepção de maquinaria
computacional complexa vem sendo ensaiada. Endossamos que não há uma
ruptura drástica em ciências cognitivas, mas que nem por isso as diferenças
teóricas são menos interessantes ou importantes para o desenvolvimento da área.
Um dos pontos de maior desenvolvimento ocorridos a partir das perspectivas
enativa e sistemas complexos se refere à cognição social. O objetivo desta
análise está em apresentar o Big data como uma forma de cognição social
artificial. Para este fim partimos da análise conceitual da cognição social com a
finalidade de evidenciar seu potencial elucidatório sobre o Big data como um
tipo de maquinaria computacional complexa, emergente e autopoiética, da qual
as pessoas são constituintes e construtoras. Reflexões sobre a autonomia em
sistemas complexos se desdobram para entender a autonomia humana na
sociedade da informação. Enfim, entendendo a sociedade como um sistema
cognitivo e como uma máquina complexa, seria possível elaborar intervenções
"simples", mas eficientes para gerar efeitos complexos, robustos, resilientes no
sentido da autonomia das pessoas?
20
The various theories and models of cognition may be grouped in at
least big four classes: cognitivism, connectionism, enactivism and complex
systems. We understand that these classes are not excludent but that there is a
perspective of accumulation and broadening of knowledge. Enactive analyses
about Turing’s machine, about the concepts of information and process do not
exclude, this way, the “information processing” but give a new theoretical
perspective from which a conception of complex computing machinery has been
rehearsed. We endorse that there is not a drastic rupture in cognitive sciences,
but that the theoretical differences are not less interesting or important to the
development of the area, nonetheless. One of the points of greater development
occurred from the enactive and complex systems perspectives refers to social
cognition. The goal of this analysis is in presenting Big data as a form of
artificial social cognition. To this end we start from the conceptual analysis of
social cognition with the finality of emphasizing its elucidatory potential on Big
data as a kind of complex, emergent and autopoietic computing machinery, of
which people are constituent and constructors. Reflections on autonomy in
complex systems unfold to understand human autonomy in the society of
information. Finally, understanding society as a cognitive system and a complex
machine, would it be possible to elaborate “simple” but efficient interventions to
generate complex, robust, resilient effects in the sense of the autonomy of
people?
AS NOVAS BIOTECNOLOGIAS E A QUESTÃO
ANTROPOLÓGICA: IMPLICAÇÕES MORAIS
NEW BIOTECHNOLOGIES AND THE ANTHROPOLOGICAL
QUESTION: MORAL IMPLICATIONS
Conferência de Encerramento / Closing Speaker
DOMINGUES, Ivan.
UFMG
Pretende-se discutir o impacto das novas biotecnologias – dentre as
suas gamas ou modalidades, aquelas diretamente ligadas às aplicações em seres
humanos – sobre a questão antropológica. Para tanto, ao eleger a ação
autônoma como tema e objeto das análises, na esteira das propostas do X
Encontro de Marília, quando iremos descobrir a liberdade interfaceando tanto a
ética quanto a (bio)tecnologia, especial atenção será conferida ao exame das
implicações morais e das diferentes classes de risco ligadas à reprodução
assistida: escolhida, dentre as várias tecnologias de aplicações humanas, em
21
razão de seu potencial filosófico, havendo mais de uma técnica, umas menos
outras mais controversas, além de mais ambiciosas, com o propósito de ir às
“raízes da vida” e de manejá-las, como na germline therapy, e em especial
aquelas ligadas à transgenia, colocando no centro da agenda biotecnológica uma
nova eugenia, como no caso da tecnologia Cripr e o projeto do Perfect baby. E
desde logo, em paralelo ao ciborgue da cibernética, ao promover a união do
orgânico e do maquínico, estaremos mais uma vez diante do projeto de
reengenhagem do ser humano, com a própria bios e as moléculas da vida – o
DNA – sendo reformatada e potencializadas (enhanced, em inglês). Agora não
mais uma fantasia, mas uma realidade, tendo como protótipo o Mighty Mouse,
de Cleveland, EUA, criado em 2007, nos laboratórios da Case Western Reserve
University. Também conhecido como Supermouse, vem a um rato
geneticamente modificado com as características de maratonista campeão, com
a capacidade de correr 10 vezes mais do que um rato comum, e em que se pode
ver um excelente exemplo de tecnologias não simplesmente reparadoras ou
normalizadoras, mas potencializadoras e, mesmo, melhoradoras ou
amplificadoras. E o que é importante: no plano tecnológico, segundo os critérios
das bioengenharias, com o potencial – nada obsta – de ser estendido aos seres
humanos, levando a filosofia a colocar em sua agenda de discussão a reflexão
sobre o poder e a capacidade de alforria da (bio)tecnologia, ao nos libertar da
tirania e dos erros da natureza; paralelamente, às suas ameaças e controvérsias,
ao colocar nosso destino de seres vivos em nossas mãos ou, antes, melhor
dizendo, nas mãos dos médicos e dos geneticistas, dando azo às desconfianças
juntamente às acusações dos críticos de que eles estariam Playing God. O
objetivo, ao fazer o cômputo das controvérsias, das ameaças e das promessas
ligadas aos bioartefatos bem como às diferentes biotecnologias com sua maior
ou menor incerteza ou seu maior ou menor risco em seus usos e em suas
aplicações, é criar o quadro abstrato e os parâmetros para pensar e calibrar as
regulações das biotecnologias e suas produções: médias, fracas ou fortes,
podendo levar a moratórias de governos ou, no extremo oposto, quando seguras
e familiares, como nas vacinas, redundar em simples normas técnicas, ou então
cair na esfera da auto-regulação do indivíduo, como na decisão de alguém
querer ou não ter um filho – com ou sem reprodução assistida.
I intend to discuss the impact of new biotechnologies - among its
ranges or modalities, those directly linked to applications in human beings -
upon the anthropological question. Therefore, in choosing the autonomous
action as the theme and object of this analysis, following the proposals of the
10th Marilia Meeting, when we will discover freedom by interfacing both ethics
and (bio) technology, special attention will be given to examining the moral
implications and of the different risk classes connected to assisted reproduction:
chosen among the various technologies of human applications, due to their
philosophical potential, there being more than one technique, some less
22
controversial, some more, as well as more ambitious, with the purpose of going
to the "roots of life" and to manage them, as in germline therapy, especially
those related to genetic modifications, placing at the center of the biotechnology
agenda a new eugenics, as in the case of CRISPR technology and the Perfect
baby project. And then, parallel to the cybernetic cyborg, in promoting the union
of the organic and the machinic, we will once again face the project of re-
engineering the human being, with the bios itself and the molecules of life - the
DNA - being reformatted and enhanced. Now no longer a fantasy, but a reality,
having as a prototype the Mighty Mouse, from Cleveland, USA, created in
2007, in the laboratories of Case Western Reserve University. Also known as
Supermouse, it comes to be a genetically modified mouse with the
characteristics of marathon champion, with the ability to run 10 times more than
an ordinary mouse, and in which you can see an excellent example of
technologies not simply repairing or normalizing, but enhancers or improvers.
And what is important: on the technological level, according to the criteria of
bioengineering, with the potential - nothing prevents - from being extended to
human beings, leading philosophy to put in its agenda the reflection on the
power and the capacity of manumission of (bio) technology, by freeing
ourselves from the tyranny and errors of nature; in parallel, to their threats and
controversies, by placing our fate of living beings in our hands, or rather, in the
hands of doctors and geneticists, giving rise to suspicions along with
accusations by critics that they would be playing God. The purpose of
accounting for the controversies, threats and promises associated with bio-
artefacts as well as the different biotechnologies, with their greater or lesser
uncertainty or risk in the uses and applications is to create the abstract picture
and the parameters to think ant adjust the biotechnology regulations and their
productions: medium, weak or strong, which can lead to government
moratoriums or, at the opposite extreme, when safe and familiar, such as
vaccines, result in simple technical norms, or fall into the sphere of self-
regulation of the individual, as in the decision of whether or not to have a child -
with or without assisted reproduction.
TRADUÇÕES ENTRE LÓGICAS: CONTRIBUIÇÕES PARA O
ESTUDO DA INFORMAÇÃO E DOS BIG DATA
TRANSLATIONS BETWEEN LOGICS: CONTRIBUTIONS TO
STUDIES OF BIG DATA
Workshop
23
D’OTTAVIANO, Ítala Loffedo.
CLE / Unicamp
FEITOSA, Hércules de Araújo.
Unesp / Bauru
Em 1997, com base na definição geral do conceito de tradução entre
lógicas previamente proposto por da Silva, D’Ottaviano and Sette, Feitosa
introduziu o conceito de tradução conservativa em estudos de uma categoria
cujos objetos são a lógica tarskiana e cujos morfismos são as traduções
conservativas entre elas (veja Feitosa and D’Ottaviano 2001). Carnielli,
Coniglio e D’Ottaviano 2009, ao simplificar o conceito de meta-tradução
introduzido por Coniglio em 2005, propuseram o conceito de tradução
contextual. Nesta apresentação, introduzimos o conceito de tradução contextual
abstrata e propomos que este novo conceito de tradução é mais amplo que os
conceitos de tradução conservativa e de tradução contextual. Também
discutimos a possibilidade de descrever inter-relações entre linguagens e
lógicas, através da análise de traduções entre elas, de modo a adicionar uma
nova perspectiva no estudo dos Big Data.
In 1997, based on the general definition of the concept of translation
between logics previously proposed by da Silva, D’Ottaviano and Sette, Feitosa
introduced the concept of conservative translation in studies of a category whose
objects are the Tarskian logics and whose morphisms are the conservative
translations between them (see Feitosa and D’Ottaviano 2001). Carnielli,
Coniglio and D’Ottaviano 2009, by simplifying the concept of meta- translation
introduced by Coniglio in 2005, propose the concept of contextual translation.
In this presentation, we introduce the concept of abstract contextual translation
and propose that this new concept of translation is wider than the concepts of
conservative translation and of contextual translation. We also discuss the
possibility of describing interrelations between languages and logics, through
the analysis of translations between them, in order to add new perspective in the
study of Big Data.
24
SINECOCULTURA E SISTEMA DE GERENCIAMENTO DE
MEGADIVERSIDADE
SYNECOCULTURE AND MEGADIVERSITY MANAGEMENT
SYSTEM
Conferência Plenária / Keynote Speaker
FUNABASHI, Masatoshi.
Sony Computer Science Laboratories / Japão
Esta fala sumarizará o principal design e o estado da arte do
desenvolvimento do Sistema de Gerenciamento de Megadiversidade (MMS), e
discute requerimentos fundamentais para a aplicação à produção de alimentos
primária sob o Food flagship do campus digital de sistemas complexos (CS-
DC). O MMS está atualmente em desenvolvimento como uma estrutura de
código aberto que conecta sistema de gerenciamento de conteúdo (CMS),
aprendizado de máquina / inteligência artificial (ML/AI), internet das coisas
(IoT) e várias interfaces, de modo a gerenciar a produção de alimentos primária
como uma organização autônoma descentralizada (DAO) integrando a
biodiversidade. Ele é projetado para ser compatível com análise/gerenciamento
extensivo e dinâmico de sistemas sócioecológicos incluindo transição dinâmica
e adaptação a mudança climática, mudança de regime ecológico, a segunda
revolução da internet e a implementação de fazendas/sociedades inteligentes. A
palestra revisará requerimentos essenciais para estas realizações, e estende sua
aplicação como um suporte ICT para o Food flagship visando cobrir a futura
DAO das DAOs entre pequenos produtores que ocupam cerca de 87% da terra
fértil do mundo e que são os principais motores de impactos ambientais.
This talk will summarize the principal design and state of art of
development of Megadiversity Management System (MMS) and discuss
fundamental requirement for the application to primary food production under
the Food flagship of complex systems digital campus (CS-DC). The MMS is
currently under development as an open-source framework that connects content
management system (CMS), machine learning/artificial intelligence (ML/AI),
internet of things (IoT) and various interfaces, in order to manage primary food
production as decentralized autonomous organization (DAO) mainstreaming
biodiversity. It is designed to be compatible with extensive and dynamical
assessment/management of social-ecological systems including dynamical
transition and adaptation to climate change, ecological regime shift, the 2nd
internet revolution and implementation of smart farms/societies. The talk will
25
review essential requirement for these realisations, and further extend its
application as a supportive ICT for the CS-DC Food flagship aiming to cover
the future DAO of DAOs among smallholders who occupy about 87% of the
world’s agricultural land and who are the principal drivers of environmental
impacts.
BIG DATA NA PERSPECTIVA DAS CIÊNCIAS DA
INFORMAÇÃO
BIG DATA FROM THE PERSPECTIVE OF THE
INFORMATION SCIENCES
Parte da Mesa Redonda “Informação, Tecnologia e Ação Autônoma da Era
dos Big Data” / Part of the Symposium “Information, Technology and
Autonomous Action in the Age of Big Data”
GRÁCIO, Maria Cláudia Cabrini.
Unesp / Marília
No presente trabalho, é apresentada uma análise diacrônica das
pesquisas que tratam de questões associadas ao universo do "Big Data" no
campo da Ciência da Informação em âmbito mundial, identificando suas
primeiras publicações e evolução, de forma comparativa ao desenvolvimento na
ciência em geral. Destaca-se os principais atores – países, veículos de
comunicação científica e pesquisadores – envolvidos nesse cenário e as
temáticas que tem constituído foco de pesquisa relacionadas ao BD.
In the work it is presented a diachronic analysis of the researches that
deal with issues associated to the universe of the "Big Data" in the field of
Information Science, in a worldly scope, identifying its first publications and
evolution, in a way comparative to the development in science in general. It is
highlighted the main actors – countries, scientific communication vehicles and
researchers – involved in this scenario and the themes that have constituted
research focus related to BD.
BIG DATA, MERGING, RECONTEXTUALIZAÇÃO E
SEMIÓTICA DE BASE DE DADOS
BIG DATA, MERGING, RE-CONTEXTUALIZATION AND
DATABASE SEMIOTICS
26
Conferência Plenária / Keynote Speaker
HJØRLAND, Birger.
Universidade de Copenhagen / Dinamarca
O que há de novo nos “Big data”? Esta apresentação começará pela
consideração da natureza dos dados e da relação entre dados, informação,
conhecimento e documentos. É comum a todos os quatro conceitos o fato de que
eles são sobre fenômenos produzidos em contextos específicos para propósitos
específicos e podem ser representados em documentos, incluindo como
representações em bases de dados. Nesse processo, eles são retirados de seu
contexto original e colocados em novos contextos. Nesse processo, os dados
perdem parte ou todo o seu significado devido ao princípio do holismo
semântico. Parte deste significado perdido deve ser reestabelecido nas bases de
dados, e as representações de dados/documentos não podem ser compreendidas
como uma atividade neutra, mas como uma atividade de apoio geral ao objetivo
implícito no estabelecimento da base de dados. A tarefa de utilizar os Big data
(como informação, conhecimento e documentos) depende em primeiro lugar da
identificação de seus potenciais para propósitos relevantes. O que há de novo
nos Big data é provavelmente que eles frequentemente são traços não-
intencionais que deixamos em todo tipo de atividade. Seu potencial para
informar alguém acerca de algo é, portanto, muito menos direto quando
comparado com, por exemplo, artigos científicos.
What is new about “Big data”? This presentation will start by
considering the nature of data and the relation between data, information,
knowledge and documents. It is common for all four concepts that they are
about phenomena produced in specific contexts for specific purposes and may
be represented in documents, including as representations in databases. In that
process, they are taken out of their original contexts and put into new ones. In
that process, data loses some or all their meaning due to the principle of
semantic holism. Some of this lost meaning should be reestablished in the
databases and the representations of data/documents cannot be understood as a
neutral activity, but as an activity supporting the overall goal implicit in
establishing the database. The task of utilizing Big data (as information,
knowledge and documents) depends first of all on the identification of their
potentials for relevant purposes. The new thing about Big data is probably that
they are often unintentional traces we leave during all kinds of activities. Their
potential to inform somebody about something is therefore much less direct
compared to, for example, scientific articles.
27
AS ARMADILHAS DA PESQUISA MOVIDA POR BIG DATA:
UMA AVALIAÇÃO
THE TRAPS OF BIG DATA-DRIVEN INQUIRY: A REVIEW
Conferência Plenária / Keynote Speaker
IBEKWE-SANJUAN, Fidelia.
Universidade de Aix-Marseille / França
Esta apresentação propõe uma análise de alto nível das implicações dos
big data para a organização do conhecimento (OC) e sistemas de organização
do conhecimento (SOCs). Ela confronta os debates atuais na comunidade de OC
acerca da relevância de classificações bibliográficas universais e o dicionário na
web com as atuais discussões acerca dos pressupostos epistemológicos e
metodológicos subjacentes ao inquérito movido por dados. Ela argumenta que
os big data não removem a necessidade de SOCs construídos pelo humano. No
entanto, transformações ocorrendo nos processos de produção do conhecimento
acarretadas pelos big data e pela Web 2.0 colocam a comunidade de OC sob a
pressão de repensar a perspectiva a partir da qual os SOCs são projetados. Neste
sentido, o campo da OC precisa mudar de estabelecer o apodítico (aquilo que
conhecemos por todo o tempo) a adaptar-se ao novo mundo do conhecimento
científico social e natural ao criar esquemas maximamente flexíveis – facetados
ao invés de classificações aristotélicas. A OC também precisa encarar a natureza
dinâmica do resultado nas ciências sociais e naturais, na medida em que estes
por sua vez são afetados pelo advento dos big data. Teoricamente, isto leva a
uma mudança de abordagens top-down puramente universalistas e normativas a
abordagens bottom-up mais descritivas que possam ser inclusivas de diversos
pontos de vista. Metodologicamente, isto significa buscar um equilíbrio correto
entre duas modalidades aparentemente opostas no design de SOCs: a
necessidade, por um lado, de incorporar técnicas automatizadas e, por outro
lado, de solicitar contribuições de amadores (crowdsourcing) via plataformas da
Web 2.0.
This presentation proposes a high-level analysis of the implications of
big data for knowledge organisation (KO) and knowledge organisation systems
(KOSs). It confronts the current debates within the KO community about the
relevance of universal bibliographic classifications and the thesaurus in the web
with the current discussions about the epistemological and methodological
assumptions underlying data-driven inquiry. It argues that big data will not
remove the need for humanly-constructed KOSs. However, on going
28
transformations in knowledge production processes entailed by big data and
Web 2.0 put pressure on the KO community to rethink the standpoint from
which KOSs are designed. In this sense, the field of KO needs to move from
laying down the apodictic (that which we know for all time) to adapting to the
new world of social and natural scientific knowledge by creating maximally
flexible schemas—faceted rather than Aristotelian classifications. KO also
needs to face the dynamic nature of output in the social and natural sciences, to
the extent that these in turn are being affected by the advent of big data.
Theoretically, this entails a shift from purely universalist and normative top-
down approaches to more descriptive bottom-up approaches that can be
inclusive of diverse viewpoints. Methodologically, this means searching for a
right balance between two seemingly opposing modalities in designing KOSs:
the necessity on the one hand to incorporate automated techniques and on the
other, to solicit contributions from amateurs (crowdsourcing) via Web 2.0
platforms.
TÓPICOS ESPECIAIS DE INFORMAÇÃO, ORGANIZAÇÃO DO
CONHECIMENTO E BIG DATA
SPECIAL TOPICS ON INFORMATION, KNOWLEDGE
ORGANIZATION, AND BIG DATA
Minicurso / Short Course
IBEKWE-SANJUAN, Fidelia.
Universidade de Aix-Marseille / França
GONZALEZ, Maria Eunice Quilici.
Unesp / Marília
MARTÍNEZ-ÁVILA, Daniel.
Unesp / Marília
Este curso discute uma análise de alto nível das implicações dos big
data para a organização do conhecimento (OC) e de sistemas de organização do
conhecimento (SOCs). Ela confronta os debates atuais na comunidade de OC
acerca da relevância de classificações bibliográficas universais e o thesaurus na
web com as atuais discussões acerca dos pressupostos epistemológicos e
metodológicos subjacentes ao inquérito movido por dados. Argumentamos que,
29
os Big Data não removerão a necessidade de SOCs construídos pelo humano.
No entanto, transformações ocorrendo nos processos de produção do
conhecimento acarretadas pelos big data e pela Web 2.0 colocam a comunidade
de OC sob a pressão de repensar a perspectiva a partir da qual os SOCs são
projetados. Essencialmente, o campo da OC precisa mudar de estabelecer o
apodítico (aquilo que conhecemos por todo o tempo) a adaptar-se ao novo
mundo do conhecimento científico social e natural ao criar esquemas
maximamente flexíveis – facetados ao invés de classificações aristotélicas. A
OC também precisa se adaptar à natureza dinâmica do resultado nas ciências
sociais e naturais, na medida em que estes por sua vez são afetados pelo advento
dos big data. Teoricamente, isto leva a uma mudança de abordagens top-down
puramente universalistas e normativas a abordagens bottom-up mais descritivas
que possam ser inclusivas de diversos pontos de vista. Metodologicamente, isto
significa buscar um equilíbrio correto entre duas modalidades aparentemente
opostas no design de SOCs: a necessidade, por um lado, de incorporar técnicas
automatizadas e, por outro lado, de solicitar contribuições de amadores
(crowdsourcing) via plataformas da Web 2.0. Este curso também discute o que
há de novo acerca dos “big data”. Ele começará por considerar a natureza dos
dados e a relação entre dados, informação, conhecimento e documentos. É
comum para todos os quatro cocneitos que eles são sobre fenômenos produzidos
em contextos específicos para fins específicos e podem ser representados em
documentos, incluindo como representações em bases de dados. Nesse processo,
eles são tirados de seus contextos originais e colocados em novos. Nesse
processe, os dados perdem parte de ou todo o seu significado devido ao
princípio do holismo semântico. Uma parte deste significado perdido pode ser
reestabelecido nas bases de dados e representações de dados / documentos não
podem ser compreendidas como uma atitivade neutra, mas como uma atividade
dando apoio ao objetivo geral implícito na base de dados. A tarefa de utilizar big
data (como informação, conhecimento e documentos) depende primeiramente
da identificação de seus potenciais para propósitos relevantes. O que há de novo
sobre os big data pe provavelmente qye eles são frequentemente traços não-
intencionais que deixamos durante todo tipo de atividade. Seu potencial para
informar alguém de algo é então muito menos direto se comparado a, por
exemplo, artigos científicos.
This course discusses a high-level analysis of the implications of Big
Data for knowledge organization (KO) and knowledge organization systems
(KOSs). It confronts the current debates within the KO community about the
relevance of universal bibliographic classifications and the thesauruses on the
web with the ongoing discussions about the epistemological and methodological
assumptions underlying data-driven inquiry. It is argued that Big Data will not
remove the need for humanly-constructed KOSs. However, ongoing
transformations in knowledge production processes entailed by Big Data and
30
Web 2.0 put pressure on the KO community to rethink the standpoint from
which KOSs are designed. Essentially, the field of KO needs to move from
laying down the apodictic (that which we know for all time) to adapting to the
new world of social and natural scientific knowledge by creating maximally
flexible schemas - faceted rather than Aristotelean classifications. KO also
needs to adapt to the changing nature of output in the social and natural
sciences, to the extent that these in turn are being affected by the advent of Big
Data. Theoretically, this entails a shift from purely universalist and normative
top-down approaches to more descriptive bottom-up approaches that can be
inclusive of diverse viewpoints. Methodologically, this means striking the right
balance between two seemingly opposing modalities in designing KOSs: the
necessity, on the one hand, to incorporate automated techniques, and on the
other, to solicit contributions from amateurs (crowdsourcing) via Web 2.0
platforms. This course also discusses what is new about “Big Data”. It will start
by considering the nature of data and the relations among data, information,
knowledge, and documents. It is common for all four concepts that they are
about phenomena produced in specific contexts for specific purposes and may
be represented in documents, including as representations in databases. In that
process, they are taken out of their original contexts and put into new ones,
whereby the data lose some or all their meaning, due to the principle of semantic
holism. Some of this lost meaning should be reestablished in the databases and
the representations of data/documents cannot be understood as a neutral activity,
but as an activity supporting the overall goal implicit in establishing the
database. The task of utilizing Big Data (as information, knowledge, and
documents) depends first of all on identification of the potentials for relevant
purposes. The new thing about Big Data is probably that it often comprises
unintentional traces that we leave during all kinds of activities. Its potential to
inform somebody about something is therefore much less direct, compared to,
for example, scientific articles.
CONSIDERAÇÕES SEMIÓTICAS SOBRE FAKE NEWS E
ALTERNATIVE FACTS – VERDADE E ÉTICA NO UNIVERSO
DOS BIG DATA
SEMIOTIC CONSIDERATIONS ON FAKE NEWS AND
ALTERNATIVE FACTS – TRUTH AND ETHICS IN THE
UNIVERSE OF BIG DATA
Parte da Mesa Redonda “Big Data e (Des)Informação” / Part of the
Symposium “Big Data and (Dis)Information”
31
IBRI, Ivo Assad.
PUC / São Paulo
No título desse texto, mantenho os termos fake news e alternative facts
em língua inglesa não porque seria isso simplesmente justificável por nela terem
tido origem, mas, essencialmente, porque acabaram se popularizando
internacionalmente como tais. Procuro aqui refletir, à luz da semiótica e da
filosofia de Peirce, sobre a distinção entre o que seriam true e fake news, assim
como entre alternative facts e simplesmente facts, uma vez que esse último
termo poderia dispensar uma adjetivação que o retirasse de seu âmbito próprio,
a saber, o da genuína alteridade, tal qual a caracteriza a categoria da
segundidade peirciana. Sob o ponto de vista da Semiótica, que consequências
éticas traria o abandono do compromisso com a verdade? Porque a verdade é
uma busca convergente para uma monossemia, enquanto a polissemia seria
apenas eticamente viável no âmbito da arte e do estágio hipotético da pesquisa
científica? Que consequências éticas teria uma apropriação indébita da
possibilidade da polissemia dos signos, a serviço de interesses de grupos, nessa
época da mídia digital e do big data associada a uma pública circulação
alucinante da informação? Busco, nesse pequeno ensaio, propor diretrizes para
uma análise do estatuto semiótico dessas questões, supondo que elas poderão
trazer uma compreensão diferenciada de suas consequências de natureza ética.
In the title of this text, I maintain the terms fake news and alternative
facts in English not because this would be simply justifiable for they had their
origin in it, but, essentially, because they ended up becoming internationally
popular as such. I seek here to reflect, from the light of semiotics and of Peirce’s
philosophy, about the distinction between what would be true and fake news,
just as between alternative facts and just facts, since this last term could dismiss
an adjective which would take it away from its own scope, which is that of
genuine otherness, such as characterized by the Peircean category of
secondness. From the point of view of semiotics, which ethical consequences
would the abandonment of the compromise with truth bring about? Why is truth
a converging search towards a monosemy, while polysemy would be ethically
viable only in the scope of art and in the hypothetical stage of scientific
research? Which ethical consequences a misappropriation of the possibility of
polysemy in signs would have, in service of the interest of groups, in this time
of digital media and of big data associated to a exhilarating public circulation of
information? I seek, in this short essay, to propose guidelines to an analysis of
the semiotic status of those questions supposing that they can bring about a
different comprehension of its consequences of an ethical nature.
32
A AÇÃO CONSCIENTE HUMANA E A AÇÃO
MANIPULADORA AUTÔNOMA: REFLEXÕES SOBRE A
TECNOLOGIA E SUA EVOLUÇÃO
HUMAN CONSCIOUS ACTION AND AUTONOMOUS
MANIPULATIVE ACTION: REFLECTIONS ON TECHNOLOGY
AND ITS EVOLUTION
Conferência Plenária / Keynote Speaker
KOBAYASHI, Guiou.
UFABC
A sociedade tecnológica atual, na qual as pessoas estão conectadas a
toda hora e em qualquer lugar através de sistemas de comunicações móveis
baseados na Internet e na Computação Ubíqua, todos tem acesso, em principio,
aos gigantescos bancos de dados e aos serviços e recursos computacionais que
facilitam a busca e a consulta a estes bancos de dados. Informações e
conhecimentos são inseridos pelas pessoas, e são mantidos atualizados e
sempre disponíveis e acessíveis de forma rápida e simples, nas pontas dos
dedos. Este é o brilhante cenário da tecnologia a serviço da humanidade, a
partir do qual alcançaríamos níveis cada vez mais elevados de progresso e
sabedoria com a evolução da tecnologia que facilitaria cada vez mais a livre
circulação da informação e do conhecimento. Neste mesmo cenário, podemos
acrescentar os dispositivos sensores e atuadores conectados à Internet (Internet
of Things – IoT) que capturam dados e interferem no ambiente real
controlados por um sistema computacional autônomo. Desta vez, as
informações não são mais alimentadas por pessoas mas elas são capturadas
automaticamente pelos sensores do IoT. Conhecimentos são gerados por
ferramentas analíticas do Big Data, e estes conhecimentos podem ser
consolidados pelos ciclos de realimentação viabilizados novamente pelo IoT: a
atuação sobre o ambiente e pessoas, e a captura de dados sobre o resultado
desta atuação. A partir deste ponto, o cenário passa a ser a de uma
transformação revolucionária: esta realimentação poderá permitir a contínua
evolução de um sistema computacional desenvolvido para um propósito: a de
sugerir, persuadir e a coagir indivíduos e grupos de pessoas para determinados
comportamentos e hábitos (de consumo, por exemplo). Considerando essa
possibilidade, o objetivo do presente trabalho é discutir as seguintes questões:
Para qual cenário estamos caminhando? A evolução tecnológica pode ser
dirigida ou orientada? Podemos ou devemos ter algum controle sobre este
processo?
33
Today’s technological society, in which people are connected at all
times and at all places though mobile communication systems based on the
Internet and on Ubiquitous Computing, everyone has access, in principle, to the
gigantic databases and to the computational services and resources which
facilitate the search and query in those databases. Information and knowledge
are inserted by people, and are kept updated and always available in a fast and
simple way, in our fingertips. This is the brilliant scenario of technology at
service of humanity, from which we would reach higher levels of progress and
wisdom with the evolution of technology that would facilitate each time more
the free flow of information and knowledge. In this same scenario, we may add
the sensor and acting devices connected to the Internet (Internet of Things –
IoT) which capture data and interfere in the real environment controlled by an
autonomous computational system. This time, information is no longer fed by
people, but automatically captured by IoT sensors. Knowledge in generated by
Big Data analytical tools, and those knowledges may be consolidated by cicles
of feedback made available again by IoT: the acting on environment and people,
the capture of data about the result of this capture. From this point, the scenario
comes to be that of a revolutionary transformation: this feedback may allow the
continuous evolution of a computational system developed for a purpose: that of
suggesting, persuading and coercing individuals and groups of people towards
determined behaviours and habits (consumption ones, for example).
Considering this possibility, the goal of this work is to discuss the following
questions: Towards which scenario are we moving? May technological
evolution be directed or oriented? Can we or should we have some control over
this process?
NARRATIVAS SOCIAIS ACERCA DA VIOLÊNCIA DE
GÊNERO NA SOCIEDADE BRASILEIRA
SOCIAL NARRATIVES REGARDING STREET GENDER
HARASSMENT IN BRAZILIAN SOCIETY
Conferência Plenária / Keynote Speaker
LOUÇÃ, Jorge.
Universidade de Lisboa / Portugal
Desenvolvimentos científicos recentes permitem uma nova abordagem
para o entendimento de dinâmicas de cgnição social, integrando os domínios do
processamento de linguagem natural, aprendizado de máquina, teoria de rede, e
modelagem matemática de sistemas complexos multinível. Nesta palestra, um
34
novo método interdisciplinar para a análise de construtos cognitivos sociais, que
chamamos narrativas, será apresentado. O método é aplicado ao estudo da
violência de gênero e do assédio sexual na sociedade brasileira. O estudo é
baseado em análises quantitativas observadas em importantes jornais brasileiros.
Recent scientific developments allow a new approach for the
understanding of social cognitive dynamics, integrating the domains of natural
language processing, machine learning, network theory, and mathematical
modelling of multi-level complex systems. In this session, a new
interdisciplinary method for the analysis of social cognitive constructs, that we
call narratives, will be presented. The method is applied to the study of street
gender harassment and sexual assaults in the Brazilian society. The study is
based on the quantitative analysis of narratives observed within representative
Brazilian newspapers.
BIG DATA, INFORMAÇÃO, E A DINÂMICA DA FORMAÇÃO
DE OPINIÇÕES: UM ESTUDO SOBRE NARRATIVAS SOCIAIS
BIG DATA, INFORMATION, AND OPINION FORMATION
DYNAMICS: STUDY ON SOCIAL NARRATIVES
Workshop
LOUÇÃ, Jorge.
Universidade de Lisboa / Portugal
BROENS, Mariana Claudia.
Unesp / Marília
Uma diversidade de técnicas tem sido utilizada para monitorar a
opinião pública, permitindo a análise da evolução de construtos cognitivos
sociais, que chamamos narrativas, compostos por cadeias de conceitos e
argumentos propagados na sociedade. Neste workshop, um novo método
quantitativo para a análise do discurso será apresentado, que é bem adaptado a
grandes corpos de texto. Este método é baseado na teoria de rede, aprendizado
de máquina, processamento de linguagem natural, e modelagem matemática de
sistemas complexos multinível. Este método é aplicado à base de dados do
Observatório, incluindo jornais publicados ao redor do mundo. Diversos estudos
de caso serão apresentados, incluindo os estudos de conjuntos de dados
coletados: (1) no Brasil, para o estudo de violência de gênero; (2) na Índia, para
35
o estudo de intolerância cultural e religiosa; e (3) na Europa, para o estudo da
xenofobia.
A diversity of techniques has been used for monitoring public opinion,
allowing to analyse the evolution of social cognitive constructs, that we call
narratives, composed by chains of concepts and arguments being propagated in
society. In this workshop, a new quantitative method for discourse analysis will
be presented, that is well adapted for large textual corpus. This method is based
on network theory, machine learning, natural language processing, and
mathematical modelling of multi-level complex systems. The method is applied
to the Observatorium database including newspapers published around the
world. Several case studies will be presented, including the study of datasets
being gathered in: (1) Brazil, for the study of street gender harassment; (2)
India, for the study of cultural and religious intolerance; and (3) Europe, for the
study of xenophobia.
BIG DATA, ESCOLHA DE LINGUAGEM, E IDENTIDADES NO
INSTAGRAM ENTRE FALANTES DE LEGADO DMV
BIG DATA, LANGUAGE CHOICE, AND IDENTITIES IN
INSTAGRAM AMONG DMV LEGACY SPEAKERS
Conferência Plenária / Keynote Speaker
MAGRO, José.
Universidade de Maryland / EUA
O objetivo desta investigação é lançar luz sobre as particularidades da
escolha de linguagem e da performance identitária entre falantes de legadoe
spanhol na área DC-Maryland-Virginia (DMV) interagindo através de mídias
sociais em um domínio sociocultural específico (Música Urbana). O estudo foca
nas maneiras pelas quais falantes de legado usam recursos linguísticos e
estilísticos em um âmbito heteroglóssico para performar indentidades
(trans)locais enquanto enfatiza as diferenças entre participantes de primeira e
segunda geração de imigrantes. Atenção especial é dada aos aspectos da
translocalidade e da Linguagem Nacional do hip-Hop (Alim, 2009), agência, e
as maneiras pelas quais eles próprios compreendem e respondem por suas ações
através de consciência linguística. Teoricamente e metodologicamente a
investigação recorre a sociolinguística, ideologias de linguagem, teoria crítica
racial, e análise do discurso, em uma abordagem de metodologia mista. O
estudo analiza um total de 1630 entradas no Instagram e investiga como as
36
manifestações linguísticas e textuais desses falantes de legado são movidos por
e expressam alinhamentos e afinidades afetivos e socioculturais translocais ao
mesmo tempo em que resistem a ideologias hegemônicas. O uso de análises de
Big Data é discutido.
The aim of this investigation is to shed light on the particularities of
language choice and identities performance among legacy speakers of Spanish
in the DC-Maryland-Virginia area (DMV) interacting through social media
within a specific socio-cultural domain (Urban Music). The study focuses on the
ways in which legacy speakers use linguistic and stylistic resources within a
heteroglossic framework to perform (trans)local identities while highlighting the
differences between first and second-generation immigrant participants. Special
attention is given to aspects of translocality and Hip-Hop Nation Language
(Alim, 2009), agency, and the ways in which they themselves make sense of and
account for their actions through linguistic awareness. Theoretically and
methodologically the investigation draws on sociolinguistics, language
ideologies, critical race theory, and discourse analysis, within a mixed-
methodology framework. The study analyzes some total of 1630 Instagram
entries and investigates how these legacy speakers’ linguistic and textual
displays in Instagram are geared by and express translocal affective and
sociocultural alignments and affinities while resisting hegemonic ideologies.
The use of Big Data analysis is discussed.
CLASSIFICANDO A LOD CLOUD: APROFUNDANDO NO
GRÁFICO DO CONHECIMENTO
CLASIFYING THE LOD CLOUD: DIGGING INTO THE
KNOWLEDGE GRAPH
Conferência Plenária / Keynote Speaker
MARTÍNEZ-ÁVILA, Daniel.
Unesp / Marília
Na era dos big data, quantidades massivas de dados de diferentes
contextos e produtores são coletados e conectados frequentemente confiando
apenas em técnicas estatísticas. Dados nem sempre são publicados de maneira
aberta ou significativa, então suas interconexões têm frequentemente sido
relacionadas a interesses comerciais ou privados (esquecendo os interesses
públicos que a ligação destes dados poderia trazer para a ciência e a educação).
A Linked Open Data (LOD) Cloud requer vocabulários interoperáveis escalados
37
para melhor organização de grandes conjuntos de dados. A filosofia da web
semântica, baseada na criação de dados significativos legíveis por máquinas por
diferentes comunidades, tem levado a sistemas de informação isolados, que vem
com seus próprios sistemas de organização de conhecimento de domínio
específico, limitando a potencial interoperabilidade. A promessa da Linked
Open Data (LOD) Cloud baseada na web é de liberar dados, metadados e
informação em grande escala a partir destes “silos de dados”. A LOD Cloud
promete entregar Sistemas de Organização do Conhecimento (SOCs) legíveis
por máquinas e sua implementação de uma maneira que permita uma
entreligação fácil. Por exemplo, a plataforma GeoNames
(http://www.geonames.org) publica cerca de onze bilhões de nomes de locais
em forma legível por máquina e tem sido usada por muitos outros serviços para
relacionar um termo como “Manaus” a uma referência geográfica específica,
que por sua vez permite a outros serviços ligar outros nomes a esta localidade,
p. ex., nomes alternativos coloquiais e históricos como “Barra do Rio Negro.”
De maneira similar, a interdisciplinaridade na ciência também vem com
problemas terminológicos que afetam tanto os sistemas de organização do
conhecimento quanto a comunicação entre comunidades científicas. O domínio
da Organização do Conhecimento está começando a lidar com estes problemas,
como exemplificado pelos estudos sobre as abordagens da interdisciplinaridade
representados pela sintética e facetada Universal Decimal Classification (UDC),
baseada em disciplinas, e aquela da Basic Concepts Classification (BCC),
baseada em fenômenos (Smiraglia and Szostak 2018). Este trabalho reporta um
projeto trianual “Digging Into the Knowledge Graph,” fomentado como parte do
2016 Round Four Digging Into Data Challenge
(https://diggingintodata.org/awards/2016/project/digging-knowledge-graph).
In the age of big data, massive amounts of data from different contexts
and producers are collected and connected relying often solely on statistical
techniques. Data are not always published in meaningful and open ways, so
their interconnections have been often related to commercial and private
interests (forgetting the public interests that the link of these data could bring for
science and education). The Linked Open Data (LOD) Cloud requires
interoperable vocabularies scaled up for better organization of large data
clusters. The philosophy of the semantic web, based on the creation of
meaningful machine-readable data by different communities, has led to isolated
information systems, which come with their own domain-specific knowledge
organization systems, limiting potential interoperability. The promise of the
web-based Linked Open Data (LOD) Cloud is to free up data, metadata and
information to a large extent from these “data silos.” The LOD Cloud promises
to deliver machine-readable Knowledge Organization Systems (KOSs) and their
implementation in a way that enables easy cross-linking. For example, the
platform GeoNames (http://www.geonames.org) publishes about eleven billion
38
place names in machine readable form and has been used by many other
services to relate a term like “Manaus” to a specific geographic reference, which
in turn enables other services to link other names to this location, e.g., colloquial
and historical alternative names such as “Barra do Rio Negro.” Similarly,
interdisciplinarity in science has also come with terminological problems that
effect both knowledge organization systems and communication among
scientific communities. The Knowledge Organization domain is beginning to
grapple with these problems, as exemplified by the studies on the approaches to
interdisciplinarity represented by the synthetic and faceted discipline-based
Universal Decimal Classification (UDC) and that of the phenomenon-based
Basic Concepts Classification (BCC) (Smiraglia and Szostak 2018). This paper
reports on a three year research project “Digging Into the Knowledge Graph,”
funded as part of the 2016 Round Four Digging Into Data Challenge
(https://diggingintodata.org/awards/2016/project/digging-knowledge-graph).
TERCEIRA MARGEM: O CONHECIMENTO NAS REDES
SOCIAIS
THIRD MARGIN: KNOWLEDGE IN SOCIAL NETWORKS
Parte da Mesa Redonda “Big Data, redes sociais e organização do
conhecimento” / Part of the Symposium “Big Data, social networks and
knowledge organization”
MEISTER, Izabel Patrícia.
Unifesp / São Paulo
As redes sociais virtuais têm sido o centro das atenções em vários
estudos por seus mais diversos aspectos e aplicações: como fenômeno de
relacionamento e comunicação, como integração de novos comportamentos,
como estruturas sociais, culturais e educacionais emergentes, com números
estrondosos de pessoas conectadas. Ao investigar como as redes sociais podem
se configurar em espaço de criação e aquisição de conhecimento, podemos
perceber como e com que intensidade a rede se mantém nesse estado,
interligando objetos, sistemas e sujeitos. Pelo caráter complexo do fenômeno
investigado, a pesquisa toma a perspectiva interdisciplinar como fundamental e
trabalha com três eixos norteadores: o conhecimento, a inteligência coletiva e a
complexidade. Esse olhar interdisciplinar nos leva também à necessidade de
uma abordagem qualitativa, por tratarmos de um processo. O método é o da
pesquisa etnográfica virtual, que nos permitiu observar e acompanhar os
registros das redes sociais escolhidas: a comunidade Colearn, na Tool Library, o
39
grupo Colearn e o grupo Filtros Educação e Aprendizagem XXI, ambos no
facebook.
Virtual social networks have been the center of attention in several
studies for their most diverse aspects and applications: as a phenomenon of
relationship and communication, as the integration of new behaviors, as
emergent social, cultural and educational structures, with surprising numbers of
people connected. By investigating how social networks can be configured in
the space of creation and acquisition of knowledge, we can perceive how and
with what intensity the network remains in this state, interconnecting objects,
systems and subjects. Due to the complex nature of the investigated
phenomenon, the research takes the interdisciplinary perspective as fundamental
and works with three guiding axes: knowledge, collective intelligence and
complexity. This interdisciplinary approach also leads us to the need for a
qualitative approach, since we are dealing with a process. The method is that of
virtual ethnographic research, which allowed us to observe and follow the
records of the chosen social networks: the Colearn community, the Tool
Library, the Colearn group and the Education and Learning Filters XXI group,
both on Facebook.
O DOMÍNIO BIGDATIANO: DOMÍNIO, CONTROLE E
CONFLITO
THE BIGDATIAN DOMAIN: DOMAIN, CONTROL E
CONFLICT
Parte da Mesa Redonda “Big Data, redes sociais e linguagem: algum
acréscimo ao estudo da informação?” / Part of the Symposium “Big Data,
social networks and language: any addition to the study of information?”
NUNES, Antônio Sérgio da Costa.
UFPA
SOUZA, Albert Matos.
UFPA
A supremacia dos Sistemas sobre o ser humano, determina o ritmo de
trabalho e a rotina das tarefas, bem como permite o engodo e as trapaças nas
relações interpessoais. Acirra as divergências e altera as interações,
proporcionando a discórdia e a dissensão entre os indivíduos. Pretendemos a
40
partir de um estudo de caso como o Sistema SIGAA e SAGITA (SIGAA,
graduação, Robson Aguiar, Ufpa) da Universidade Federal do Pará – Ufpa,
analisar o controle, o domínio e o centralismo de dados acadêmicos como forma
de submissão ao Sistema, impedindo maior ação de Unidades e Sub-unidades na
tomada de decisão sobre aquilo que lhe compete no ‘varejo’: seja no que se
refere à matrículas, alteração de conceito, mudança de turma, concessão de
crédito e modalidade opcional entre bacharelado e licenciatura, o que dificulta
sobremaneira a administração acadêmica, gerando conflitos desnecessários entre
alunos e sub-unidades, bem como entre sub-unidades e CIAC (setor responsável
pela manutenção e administração do sistema), do mesmo modo como funciona
os Big Data, gerando consequências éticas e políticas nas interações sociais.
Esse viés ético-informacional nos permite dimensionar, os graves problemas
advindos dessa excessiva centralização e consequentemente, gerando crises e
desordens no processo de resolução das demandas acadêmicas, propiciando o
prolongamento do problema, a mudança repentina de definições e conflitos
interinstitucionais.
The supremacy of Systems over human beings determines the rhythm
of work and the routines of tasks, as well as allows for luring and cheating in
interpersonal relationships. It incites divergences and alters interactions,
providing discord and dissent among individuals. We intend from a case study
with the System SIGAA and SAGITA (SIGAA, undergraduate, Robson Aguiar,
Ufpa) of the federal University of Pará – Ufpa, to analyze the control, the
dominion and the centralism of academic data as a form of submission to the
System, impeding a greater action of Unities and Sub-unities in decision-making
about what regards it in the ‘retail’: be it in what regards registration, concept
alteration, class change, credit concession and optional modality between
bachelor and licensed degrees, what severely difficults the academic
administration, generating unnecessary conflicts between students and sub-
unities, as well as between sub-unities and CIAC (sector responsible for the
system’s maintenance and administration), the same way that the Big Data
work, generating ethical and political consequences in social interactions. This
ethical-informational bias allows us to dimension the serious problems resulting
from this excessive centralization and consequently generating crisis and
disorders in the process of resolution of academic demands, fostering the
prolonging of the problem, the sudden change in definition and the inter-
institutional conflicts.
41
REDES SOCIAIS DIGITAIS E A ESFERA PÚBLICA: FAKE
NEWS E A MANIPULAÇÃO DA OPINIÃO COLETIVA
DIGITAL SOCIAL NETWORKS AND THE PUBLIC SPHERE:
FAKE NEWS AND COLLECTIVE OPINION MANIPULATION
Parte da Mesa Redonda “Big Data, redes sociais e organização do
conhecimento” / Part of the Symposium “Big Data, social networks and
knowledge organization”
PRADO, Magaly Parreira do.
Faculdade Cásper Líbero / São Paulo
Este projeto está dedicado ao estudo da interferência dos algoritmos
das fake news nas redes sociais e do estrago provocado na esfera
pública. Propõe-se a verificar de que formas as notícias, os documentos e os
dados são utilizados nas notícias fraudulentas, tomando como ponto de partida
as relações entre os meios de comunicação, a informática e a informação.
Pretende-se investigar como se identificam mentiras publicadas por meio de
filtragens e discernir sobre as estratégias implementadas para engajar a opinião
coletiva em determinados públicos. A cacofonia provocada pelas manipulações
assola as redes sem definição clara, tampouco uma solução plausível. Trata-se
do principal problema, pois, até agora não se desenvolveu um mecanismo
eficiente para validar e contrastar conteúdo. Examinar a desinformação, a ética
dos dados e a falta de alfabetização midiática, servirá para acessar o
conhecimento científico produzido pelo comportamento da informação na
cultura algorítmica. Esperamos que a reflexão sobre o processo de mediação na
democracia deva resguardar o zelo com a informação, que envolva significado,
confiança e credibilidade. O quadro teórico relaciona a ética, a cultura e a
democracia (Bucci) com quem avalia as tecnologias da inteligência (Lévy), a
remediação-premediação (Grusin) e a crítica da comunicação (Virilio e Wolton).
A teoria matemática da informação e a cibernética (Shannon e Wiener) vão
subsidiar a compreensão inicial e a Teoria Ator-Rede (Latour) o entendimento
das redes sociais. Entre os teóricos conjeturados, estão de Habermas a Arendt.
Os procedimentos metodológicos incluem entrevistas com especialistas;
um focus group para pensar como a sociedade pode desmantelar as fake
news e a criação de um repositório com material sobre as implicações das ações
de algoritmos – um exemplo nefasto para análise é o caso da
empresa Cambridge Analytica com o Facebook na obtenção de informações de
50 milhões de pessoas para influenciar a votação nas eleições dos EUA em
2016.
42
This project is dedicated to the interference of fake news algorithms in
social networks and the damages caused on the public sphere. We propose to
verify the way that news, documents and data are used in fraudulent news,
taking as starting point the relations between communication medias, computing
and information. We intend to investigate how are identified published lies by
means of filtering and to discern on strategies implemented to engage collective
opinion in certain publics. The cacophony provoked by the manipulations
devastates the networks without clear definition, neither plausible solution. This
is the main problem, because, until now, an efficient method for validating and
contrasting content was not developed. Examining disinformation, data ethics
and the lack of midiatic alfabetization will serve to access the scientific
knowledge produced by the behavior of information in the algorithmic culture.
We hope that the reflection on the process of mediation in democracy should
safeguard the zeal with information, which involves meaning, trust and
credibility. The technical framework relates ethics, culture and democracy
(Bucci) with who evaluates the technologies of intelligence (Lévy), the
remediation-premediation (Grusin) and the critique of communication (Virilio
and Wolton). The mathematical theory of information and cybernetics (Shannon
e Wiener) will subsidize the initial comprehension and the Actor-Network
Theory (Latour) the understanding of social networks. Among the conjectured
theorists are from Habermas to Arendt. The methodological procedures include
interviews with specialists; a focus group to think how society society dismantle
fake news and the creation of a repository with material on the implications of
the actions of algorithms – a nefarious example is the case of the company
Cambridge Analytica with Facebook in the obtaining of information of 50
million people in order to influence the USA elections in 2016.
DESINFORMAÇÃO, DISTOPIA E PÓS-REALIDADE NAS
REDES SOCIAIS
DISINFORMATION, DYSTOPIA AND POST-REALITY IN
SOCIAL NETWORKS
Parte da Mesa Redonda “Big Data e (Des)Informação” / Part of the
Symposium “Big Data and (Dis)Information”
ROMANINI, Anderson Vinicius.
ECA / USP
Ficou bastante claro, a partir do Brexit (Reino Unido) e da eleição de
Donald Trump (EUA), que o marketing político passou a fazer uso intensivo
43
do Big Data compilado a partir das redes sociais que se organizam em
ambientes digitais para determinar o resultado de eleições, plebiscitos e
consultas populares. Novos mecanismos de propaganda e persuasão têm sido
criados parasitando principalmente a confiança de canais tradicionais de
informação, como veículos de notícias conhecidos pelo grande público. O
resultado foi o aparecimento dos “fake news” (notícias falsas) e dos
“alternative facts” (fatos alternativos), que resultaram no surgimento da noção
de “pós-verdade” para definir o estado de coisas representado na opinião
pública contaminada por essas estratégias discursivas. A partir dos conceitos
pragmático-semióticos de crença, hábitos mentais, ação controlada, opinião
final, verdade e realidade, desenvolvidos por Peirce, argumentamos que a
“aldeia global” criada pela internet pode estar abrindo uma perigosa bifurcação
no método científico trilhado a partir da concatenação de hipóteses, deduções e
experiências criticamente avaliadas por comunidades de pesquisadores. Essa
bifurcação, que evolui por uma distopia socialmente construída e reafirmada
nas redes sociais do ciberespaço (Facebook, Twitter, Instagram e outras),
aponta para uma pós-realidade que pode representar uma ilusória e breve zona
de conforto para os que vivem nela, mas uma tragédia talvez sem ponto de
retorno para a humanidade.
It became quite clear, from Brexit (UK) and the election of Donald
Trump (USA), that the political marketing began to make an intensive use of
Big Data compiled from social networks that are organized in digital
environments to determine the results of elections, referendums and popular
consultations. New mechanisms of propaganda and persuasion have been
created parasiting mainly the trust of the traditional informational channels, like
news vehicles known to the big public. The result was the appearance of “fake
news” and “alternative facts”, which resulted in the advent of the notion of
“post-truth” to define the sate of affairs represented in the public opinion
contaminated by those discursive strategies. From the pragmatic-semiotic
concepts of belief, mental habits, controlled action final opinion, truth and
reality, developed by Peirce, we argue that the “global village” created by the
internet may be opening a dangerous bifurcation in the scientific method trailed
from the concatenation of hypotheses, deductions and experiments critically
evaluated by communities of researchers. This bifurcation, which evolves to a
distopia socialliy constructed and reaffirmed in the social networks of the
cyberspace (Facebook, Twitter, Instagram and others), points out to a post-
reality that may represent an illusory and brief comfort zone for those who live
in it, but a tragedy maybe without point of return for humanity.
44
UMA ANÁLISE DO IMPACTO DOS BIG DATA NA SOCIEDADE
AN ANALYSIS OF THE IMPACT OF BIG DATA IN SOCIETY
Conferência Plenária / Keynote Speaker
SANT’ANA, Ricardo César Gonçalves.
Unesp / Tupã
A percepção do impacto causado pelas tecnologias é fortemente
influenciada pela profundidade e abrangência de sua penetração no tecido
social. A ampliação e disseminação do potencial de uso dos suportes digitais e
dos recursos comunicacionais elevou as Tecnologias da Informação e
Comunicação a níveis de utilização inéditos. Deste cenário emergem
possibilidades de uso de novas camadas de informações que passaram a estar
disponíveis em volumes, variedade e velocidade que superam as capacidades
atuais de armazenamento e uso, fenômeno que vem sendo denominado de Big
Data. Ao analisar as fases e fatores que compõem o Ciclo de Vida dos Dados
abrem-se novos cenários nas dimensões social, política, econômica e cultural,
que remetem à necessidade de reflexões sobre seus impactos e, principalmente,
sobre caminhos que minimizem assimetrias informacionais.
The perception of the impact caused by the technologies is strongly
influenced by the depth and breadth of its penetration in the social tissue. The
amplification and dissemination of the potential of use of digital supports and of
communicational resources elevated the Technologies of Information and
Communication to unprecedented levels of use. From this scenario emerge
possibilities of use of new informational layers that came to be available in
volume, variety and velocity that surpass the current capacities of storage and
use, a phenomenon that has been named Big Data. By analyzing the stages and
factors that compose the Lifecycle of Data new scenarios are opened in the
social, political, economic and cultural dimensions, which refer to the need of
reflections on its impacts and, mainly, on ways that minimize the informational
asymmetries.
APRENDENDO A APRENDER EM TEMPOS DE BIG DATA
LEARNING TO LEARN IN TIMES OF BIG DATA
Conferência Plenária / Keynote Speaker
45
SANTOS, Plácida Leopoldina Ventura Amorim da Costa.
Unesp / Marília
Novos relacionamentos estão se estabelecendo e isso requer a
articulação dos avanços técnicos às práticas tradicionais no uso dos dados
disponível em um processo mais amplo, completo, sofisticado e complexo em
um ambiente que congrega pessoas, necessidades e tecnologias. Aprender a
aprender se estabelece em situações de possibilidades e de rupturas, em um
processo em que é necessário considerar novas expectativas, novos exercícios e
novas experiências, a partir da integração de ambientes informacionais e do
cruzamento de teorias provenientes de várias áreas do conhecimento.
New relationships are being established and this requires the
articulation of technical advances to traditional practices in the use of data
available in a broader, complete, sophisticated and complex process in an
environment that brings together people, needs and technologies. Learning to
learn establishes itself in situations of possibilities and ruptures, in a process in
which it is necessary to consider new expectations, new exercises and new
experiences, from the integration of informational environments and the
crossing of theories from several areas of knowledge.
CIÊNCIA DA INFORMAÇÃO EM TRANSFORMAÇÃO: BIG
DATA E REDES SOCIAIS
SCIENCE OF INFORMATION IN TRANSFORMATION: BIG
DATA AND SOCIAL NETWORKS
Parte da Mesa Redonda “Big Data, redes sociais e linguagem: algum
acréscimo ao estudo da informação?” / Part of the Symposium “Big Data,
social networks and language: any addition to the study of information?”
SOUZA, Renato Rocha.
Fundação Getúlio Vargas / Rio de Janeiro
Da mesma forma que causam transformações concretas nos modos
humanos de ser e fazer na sociedade, as tecnologias da informação e da
comunicação também vêm causando grandes mudanças em nossos modos de
fazer ciência. Neste sentido, busca-se discutir estas mudanças e, em decorrência,
as competências e habilidades que surgem como necessidade formativa para
46
cientistas sociais, no escopo do que vem sendo chamado de "Humanidades
Digitais".
The same way they cause concrete transformations on the human
modes of being and doing in society, technologies of information and
communication have also caused great changes in our modes of doing science.
In this sense, we seek to discuss those changes and, as a result, the competences
and abilities that arise as formative necessity to social scientists, in the scope of
what has been called “Digital Humanities”.
CONHECIMENTO, INTELIGÊNCIA ORGANIZACIONAL E BIG
DATA: TENDÊNCIAS E PERSPECTIVAS NESTE CAMPO
KNOWLEDGE, ORGANIZATIONAL INTELLIGENCE AND BIG
DATA: TRENDS AND PERSPECTIVES IN THIS FIELD
Parte da Mesa Redonda “Big Data, redes sociais e organização do
conhecimento” / Part of the Symposium “Big Data, social networks and
knowledge organization”
VALENTIM, Marta Lígia.
Unesp / Marília
O termo ‘inteligência organizacional’ abrange a inteligência de
negócios e a inteligência competitiva, bem como os elementos inerentes aos
seus processos, como a segurança organizacional e a contra-inteligência. Big
data se refere a um conjunto de elementos inter-relacionados, quais sejam:
grande volume de dados armazenados (massa informacional), alta
velocidade com que são gerados/produzidos e grande variedade de formatos de
armazenamento e de transmissão, cujo conjunto é denominado de três ‘Vs’. Na
literatura há a presença de outros 'Vs' como, por exemplo: veracidade e valor
(cinco ‘Vs’); há, também, a abordagem de um sexto elemento viabilidade (seis
‘Vs); há, ainda, a abordagem de um sétimo elemento visualização (sete ‘Vs’).
Os dados e informações presentes nessa massa informacional podem ser
segmentados em três grandes grupos: estruturados, estruturáveis e não
estruturados (mídias sociais). Possuem diferentes formatos: texto, imagem fixa
(fotos), imagem em movimento (vídeos), sons etc., portanto, distintas
linguagens são utilizadas, assim como perpassam diferentes canais de
distribuição. Essa massa de dados e informações impacta o ambiente
organizacional, uma vez que o acesso, a busca, a filtragem, a seleção e a análise
de dados e informações se constituem em atividades complexas, influindo
47
significativamente nos processos organizacionais, principalmente, no processo
decisório responsável por estratégias de ação de curto, médio e longo prazos
voltadas à inovação, clientes e mercado. Nessa perspectiva, destaca-se que à
medida que as organizações passaram a atuar no ambiente Web e,
principalmente, passaram a interagir diretamente com seus clientes, uma grande
quantidade de dados pode ser obtida usando diferentes técnicas de prospecção e
monitoramento (data mining/mineração). Existe uma infinidade de métodos
aplicados à análise de dados oriundos das mídias sociais, entre eles destaca-se a
cyber-archeology (ciber-arqueologia) que analisa as interações públicas online,
isto é, verifica o processo de mudança cultural e o impacto das mudanças no
comportamento de uma comunidade ao longo do tempo. No contexto
organizacional, a tendência de práticas intensivas em tecnologias pelos gestores
tem seu risco, pois dados retirados do contexto perdem seu significado e valor, e
quando grandes conjuntos de dados são transformados em modelos
matemáticos, os dados são inevitavelmente descontextualizados e reduzidos ao
que se encaixa nesses modelos. A suposta precisão do big data pode e deve ser
questionada, uma vez que há razões tecnológicas e metodológicas que
evidenciam certa fragilidade. Sendo assim, é essencial que as organizações
implementem o processo de inteligência organizacional de maneira a extrair o
que de fato é relevante para a organização e, o mais importante, produzir
análises reais da massa informacional selecionada, de modo a subsidiar as
decisões que definem estratégias de ação para os prováveis cenários futuros que,
por sua vez, impactam no negócio.
The term 'organizational intelligence' encompasses business
intelligence and competitive intelligence, as well as the elements inherent in its
processes, such as organizational security and counter-intelligence. Big data
refers to a set of interrelated elements, denominated: large volume of stored data
(information mass), high velocity with which they are generated/produced and a
great variety of formats of storage and transmission, whose set is called three
'Vs'. In the literature there are the presence of other 'Vs', such as: veracity and
value (five 'Vs'); there is also the approach of a sixth element viability (six 'Vs);
there is also the approach of a seventh element visualization (seven 'Vs'). The
data and information present in this informational mass can be segmented into
three main groups: structured, capable of being structurable and unstructured
(social media). They have different formats: text, still image (photos), moving
image (videos), sounds etc., therefore, different languages are used, as well as
pass through different distribution channels. This data and information mass
impacts the organizational environment, since the access, search, filtering,
selection and analysis of data and information are complex activities,
significantly influencing the organizational processes, mainly in the responsible
decision-making process by short, medium and long-term action strategies
focused on innovation, customers and the market. In this perspective, it is
48
highlighted that as organizations started to act in the Web environment and,
mainly, they began to interact directly with their clients, a great amount of data
can be obtained using different techniques of prospection and monitoring (data
mining). There are an infinity of methods applied to the data analysis from
social media, among them cyber-archeology that analyzes online public
interactions, that is, it verifies the cultural process change and the impact of
changes in the community behavior over time. In the organizational context, the
trend of technology-intensive practices by managers is at risk, as data taken
from the context lose their meaning and value, and when large datasets are
transformed into mathematical models, data are inevitably decontextualized and
reduced to what is fits these models. The supposed accuracy of the big data can
and should be questioned, since there are technological and methodological
reasons that show a certain fragility. Thus, it is essential that organizations
implement the organizational intelligence process in a way that extracts what is
in fact relevant to the organization and, more importantly, produce real analyzes
of the selected informational mass, in order to subsidize decisions that define
strategies to the likely future scenarios that, in turn, impact the business.
EXPLICAÇÃO CIENTÍFICA: CAUSALIDADE OU
CORRELAÇÃO NA ERA DOS BIG DATA?
SCIENTIFIC EXPLANATION: CAUSALITY OR
CORRELATION IN THE AGE OF BIG DATA?
Conferência Plenária / Keynote Speaker
VICENTINI, Max Rogério.
UEM, Unesp / Marília
Os Big Data têm sido utilizados como ferramenta para a tomada de
decisões em vários âmbitos de atuação humana. Diversas perspectivas sobre seu
alcance e possíveis impactos sobre a forma tradicional de se produzir
conhecimento têm sido apresentadas e discutidas. Procuraremos investigar,
nesta apresentação, um aspecto específico do modo de atuação dos Big Data,
qual seja, aquele que prescinde da categoria de causalidade para a organização
dos eventos e extração de normas de ação, contentando-se com meras
correlações. Em qual sentido correlações podem estruturar uma explicação? Esta
é a questão a ser investigada. Para tanto, em primeiro lugar, caracterizaremos
brevemente o que são os Big Data para na sequência, munidos de conceitos
peirceanos, tecer algumas considerações sobre sua compatibilidade ou
incompatibilidade com um projeto de explicação científica.
49
Big Data have been used as a tool for decision-making in various areas
of human action. Many perspectives on its reach and possible impacts on the
traditional form of knowledge prodution have been presented and discussed. We
will investigate, in this presentation, a specific aspect of the mode of action of
Big Data, that is, that which dispenses the category of causality to the
organization of the events and the extraction of norms of action, settling with
mere correlations. In what sense correlations may structure an explanation? This
is the question to be investigated. To do so, in the first place, we will
characterize briefly what are Big Data so that, later, provided with peircean
concepts, we can weave some considerations on its compatibility or
incompatibility with a project of scientific explanation.
ACESSO À INFORMAÇÃO EM LÍNGUA MATERNA E “BIG
DATA”: REFLEXÕES ENTRE LUSÓFONOS
ACCESS TO INFORMATION IN THE NATIVE LANGUAGE
AND “BIG DATA”: REFLECTIONS BETWEEN LUSOPHONES
Parte da Mesa Redonda “Big Data e (Des)Informação” / Part of the
Symposium “Big Data and (Dis)information”
WANDERLEY, Claudia Marinho.
CLE / Unicamp
Esta reflexão apresenta dados sobre as línguas vivas hoje no mundo e
sobre as que fazem parte da rede mundial de computadores, através do
consórcio Unicode. Apresenta brevemente as políticas linguísticas em países de
língua portuguesa que permitem a representação de idiomas no espaço digital,
no espaço nacional, e particularmente no espaço formal de ensino e
aprendizagem. E a partir destes dados considera a noção de big data na relação
com a realidade linguística dos países que têm o português como língua oficial,
considerando particularmente as atividades de estudo e produção de
conhecimento. Refletimos em relação a nossa realidade lusófona onde está
localizada a big data, e nossas possibilidades reais e concretas de trabalhar nesta
perspectiva. Trataremos ao longo da reflexão das questões éticas que fazem
parte dos processos de inclusão e representação de línguas locais, línguas
oficiais, línguas nacionais e línguas de trabalho no espaço digital.
This reflection presents data on the living languages today in the world
and on those that are part of the World Wide Web, through the Unicode
50
consortium. It presents briefly the linguistic policies in countries of Portuguese
language that allow the representation of languages in the digital space, in the
national space, and particularly in the formal space of teaching and learning.
And from these data it considers the notion of big data in the relation to the
linguistic reality of the countries that have Portuguese as official language,
considering particularly the activities of study and knowledge production. We
reflect in relation to our lusophone reality where the big data are located, and
our real and concrete possibilities of working in this perspective. We will,
throughout our reflection, deal with the ethical questions that are part of the
processes of inclusion and representation of local languages, official languages,
and work languages in the digital space.
51
Comunicações Orais e Pôsteres
Oral Communications and Posters
52
O VOCABULÁRIO CONTROLADO NOS REPOSITÓRIOS
DIGITAIS
CONTROLLED VOCABULARY IN DIGITAL REPOSITORIES
Pôster / Poster
ABREU, Janice Pereira de.
UEL
CERVANTES, Brígida Maria Nogueira.
UEL
Devido ao aumento na produção de documentos digitais, emerge a
necessidade de averiguar como tal contingente vem sendo organizado,
representado e disponibilizado aos usuários. Visando contemplar tais etapas do
ciclo de preservação os repositórios digitais, vêm surgindo nos últimos anos
como um dos ambientes mais utilizados, uma vez que envolvem a guarda,
preservação, representação, disseminação e a recuperação das informações neles
inseridas. No entanto, apenas a inserção dos documentos digitais em tais
ambientes, sem que haja uma preocupação com os seus respectivos temas e com
os termos a eles relacionados, não tem sido suficiente, já que compromete o
processo de recuperação da informação. Nesse sentido, a presente pesquisa tem
como intuito analisar a importância dos vocabulários controlados para a
organização e a representação da informação em repositórios digitais, com
destaque para o do Instituto Brasileiro de Informação em Ciência e Tecnologia e
do Arquivo Publico do Estado de São Paulo. Visa também investigar como o
vocabulário controlado tem colaborado para que o acesso às informações
armazenadas nesses dois repositórios digitais seja rápido e eficaz. Em virtude de
o tema ser ainda pouco explorado no meio acadêmico, optou-se por utilizar uma
abordagem teórica e bibliográfica. Dessa forma, foi realizado levantamento
bibliográfico em base de dados nacionais e internacionais sobre os temas
vocabulários controlados em repositórios digitais. Mediante a seleção do
referencial teórico, e da leitura e compilação das diferentes abordagens
encontradas, direcionou-se o foco na análise dos vocabulários controlados
implantados nos repositórios digitais do Instituto Brasileiro de Informação em
Ciência e Tecnologia e do Arquivo Publico do Estado de São Paulo, conforme
acima mencionado. Através da análise realizada, percebeu-se ser possível a
implantação de melhorias nesses vocabulários controlados, a que influenciaria
também, a qualidade da organização e recuperação das informações ali
53
presentes, assim como, seria otimizada a recuperação pelo usuário. Considera-se
que o uso dos vocabulários controlados nos repositórios digitais é um tema
relevante para as discussões realizadas no bojo da Ciência da Informação. Sendo
assim, com os avanços das Tecnologias de Informação e Comunicação,
bibliotecários e arquivistas devem estar preparados para enfrentar os novos
desafios, contribuído assim, com soluções que possam garantir qualidade na
recuperação dos documentos digitais.
Due to the increase in the production of digital documents, the need to
investigate how this contingent has been organized, represented and made
available to the users emerges. In order to contemplate such stages of the
preservation cycle, digital repositories have emerged in recent years as one of
the most used environments, since they involve the preservation, preservation,
representation, dissemination and retrieval of the information inserted in them.
However, only the insertion of digital documents in such environments, without
a concern with their respective themes and the terms related thereto, has not
been enough, since it compromises the information retrieval process. In this
sense, the present research aims to analyze the importance of controlled
vocabularies for the organization and representation of information in digital
repositories, especially the Brazilian Institute of Information in Science and
Technology and the Public Archive of the State of São Paulo. It also aims to
investigate how controlled vocabulary has contributed to making access to the
information stored in these two digital repositories quick and efficient. Because
the subject is still little explored in the academic world, it was decided to use a
theoretical and bibliographical approach. Thus, a bibliographic survey was
conducted in national and international databases on the themes controlled
vocabularies in digital repositories. Through the selection of the theoretical
reference, and the reading and compilation of the different approaches found,
the focus was focused on the analysis of controlled vocabularies implanted in
the digital repositories of the Brazilian Institute of Information in Science and
Technology and the Public Archive of the State of São Paulo, as mentioned
above. Through the analysis performed, it was possible to implement
improvements in these controlled vocabularies, which would also influence the
quality of the organization and retrieval of the information present, as well as,
optimize the recovery by the user. It is considered that the use of controlled
vocabularies in digital repositories is a relevant topic for the discussions carried
out in the field of Information Science. Therefore, with advances in Information
and Communication Technologies, librarians and archivists must be prepared to
face the new challenges, thus contributing, with solutions that can guarantee
quality in the retrieval of digital documents.
54
COLETA DE DADOS POR APLICATIVOS E SEU IMPACTO
SOBRE A PRIVACIDADE
DATA COLLECTION BY APPLICATIONS AND ITS IMPACT
ON PRIVACY
Comunicação Oral / Oral Communication
AFFONSO, Elaine Parra.
Unesp / Marília
MONTEIRO, Elizabete Cristina de Souza de Aguiar.
Unesp / Marília
SANT’ANA, Ricardo César Gonçalves.
Unesp / Tupã
A sociedade tem amparado diversas de suas atividades no uso de
aplicativos móveis que aumentam em quantidade nos mais diversos segmentos.
Os aplicativos coletam grandes quantidades de dados e se tornam foco para uso
em Big Data. Ressalta-se que, mesmo que ocorra um aviso prévio sobre essa
coleta no momento da instalação, o motivo para coleta e uso posterior dos dados
nem sempre estão claros para o usuário. Nesse contexto, os objetivos do
trabalho foram analisar as políticas de privacidade e os dados solicitados no
momento da instalação do aplicativo, explicitando potenciais implicações para a
privacidade do usuário. A metodologia utilizada foi baseada em pesquisa
documental de natureza qualitativa e quantitativa e os procedimentos
metodológicos incluíram o método de análise de conteúdo para análise das
políticas de privacidade dos aplicativos considerando, ainda, os dados
solicitados no momento da instalação dos aplicativos. Posteriormente realizou-
se a categorização dos dados em identificadores, sensíveis e semi-
identificadores a fim de evidenciar implicações da coleta dos dados durante o
uso de aplicativos. O universo da pesquisa foi o conjunto de aplicativos móveis
no contexto da agricultura, disponibilizados pelo Google play recuperados do
trabalho de Affonso, Monteiro e Camargo (2016). Os resultados demonstram
que dentre os 39 aplicativos analisados, apenas 15 apontam políticas de
privacidade, sendo que somente 10 deles estão realmente disponíveis, assim,
observa-se que não está evidente a preocupação, por parte dos desenvolvedores,
em informar aos usuários sobre a coleta. Em relação aos tipos de dados
55
coletados observou-se dados identificadores como identidade e compras no App
(dados de transação, como o número de cartão de crédito). A maioria dos dados
coletados são semi-identificadores como dados de localização, informações de
conexão wi-fi e contatos, o que configura potencial de correlação com outros
dados e potencialmente prejudiciais à manutenção da privacidade. Os dados
sensíveis, aqueles que podem colocar o indivíduo em situações de
constrangimento, são representados pelo acesso a dados de foto/mídia/arquivo, à
câmera e microfone. Destaca-se, ainda, fatores como descrição no idioma inglês,
acesso a dados como controle de vibração, download de arquivo sem notificação
e acesso total à rede. Alguns dos aplicativos adicionam novos dados dentre os
que são coletados, representando um agravante em relação à privacidade, visto
que o usuário não teve conhecimento sobre a coleta quando instalou o
aplicativo. Conclui-se que na maioria das vezes o usuário consente no acesso
aos dados como forma de utilizar o serviço, mas, a coleta de dados pode ser
utilizada para diversos fins, principalmente no contexto de Big Data, que torna
real a questão que um dado sozinho pode não ser significativo, mas quando
combinado com outros pode levar à identificação de um indivíduo e, por
conseguinte, referenciação de informações sobre ele, de forma a construir perfis
de usuário e impactar na escolha e precificação de serviços e produtos e,
inclusive, na formação de opiniões. Configura-se assim, as políticas de
privacidade como imprescindíveis para esse cenário quando elaboradas de
forma clara e abarcarem a real coleta realizadas por esses dispositivos.
The society has supported several of its activities in the use of mobile
applications that increase in quantity in the most diverse segments. Applications
collect large amounts of data and become a focus for use in Big Data. It should
be noted that even if a warning about this collection occurs at the time of
installation, the reason for data collection and use is not always clear to the user.
In this context, the objectives of the study were to analyze the privacy policies
and data requested at the moment of application installation, evidencing
potential implications for user privacy. The methodology used was based on
documental research of a qualitative and quantitative nature, and the
methodological procedures included the content analysis method to analyze the
privacy policies of the applications, considering also the data requested at the
moment of the installation of the applications. Subsequently, the data were
categorized into identifiers, sensitive and quasi-identifiers in order to highlight
the implications of collecting the data during the use of applications. The
research universe was the set of mobile applications in the context of
agriculture, made available by Google play retrieved from the work of Affonso,
Monteiro and Camargo (2016). The results show that among the 39 applications
analyzed only 15 points to privacy policies, of which only 10 are actually
available, so it is observed that there is no evident concern on the part of the
developers to inform users about the collection. Regarding the types of data
56
collected, we observed identifier data such as identity and purchases in the App
(transaction data, such as credit card number). Most of the data collected are
semi-identifiers such as location data, wi-fi connection information and
contacts, which configures potential for correlation with other data and
potentially harmful to maintaining privacy. Sensitive data, those that can put the
individual into situations of embarrassment, are represented by access to
photo/media/file data, the camera and microphone. Also, factors such as
description in the English language, access to data such as vibration control, file
download without notification and total access to the network are highlighted.
Some of the applications add new data from the ones that are collected,
representing an aggravation of privacy, since the user was not aware of the
collection when installing the application. It is concluded that most of the time
the user consents to access the data as a way to use the service, but, the data
collection can be used for several purposes, mainly in the context of Big Data,
which makes real the question that a given alone may not be significant, but
when combined with others it may lead to the identification of an individual and
therefore referral of information about him in order to build user profiles and
impact on the choice and pricing of services and products and even training of
opinions. Thus, privacy policies are essential for this scenario when they are
clearly elaborated and cover the actual collection performed by these devices.
O PROBLEMA DOS QUALIA: O ARGUMENTO DOS ZUMBIS
FILOSÓFICOS E O ARGUMENTO DA LACUNA EXPLICATIVA
THE QUALIA PROBLEM: THE ARGUMENT OF THE
PHILOSOPHICAL ZOMBIES AND THE ARGUMENT OF THE
EXPLANATORY GAP
Pôster / Poster
ALMEIDA, Gustavo Negreiro.
Unesp / Marília
ALVES, Marcos Antônio.
Unesp / Marília
O presente trabalho versa sobre o argumento dos zumbis e o argumento
sobre a lacuna explicativa concernentes ao problema dos qualia. O argumento
dos zumbis consiste em explorar a hipótese da possibilidade de existência de
réplicas idênticas ao ser humano, porém, que seriam desprovidas de percepções
57
com qualidades fenomenais, isto é, não teriam qualia. Portanto, seriam
semelhantes no sentido físico e funcional ao ser humano, entretanto não teriam
consciência. Exposto o experimento mental acerca dos zumbis, apresentamos o
argumento sobre a lacuna explicativa que contribui para a compreensão dos
problemas relativos aos qualia. O argumento da lacuna explicativa consiste na
defesa de que as compreensões e explicações sobre os processos físicos, tais
como a produção de hormônios, sinapses etc., não conseguem explicar os
qualia, não abarcam as propriedades intrínsecas à experiência, tais como a
sensação de dor. Assim, um estímulo cerebral de dor é um processo físico que
não esgota a compreensão da dor em um sujeito, isto é, o processo físico que
propicia a dor não explica a propriedade mental de dor. Ambos argumentos, seja
a hipótese filosófica sobre a possibilidade da existência de zumbis ou a lacuna
explicativa, são alicerçados no suposto da existência dos qualia, as qualidades
fenomenais da experiência, qualidades subjetivas como o dolorido da dor, o
azulado do azul ou o sabor de uma fruta. Tais qualidades dizem respeito às
nossas propriedades mentais irredutíveis a processos físicos. Isto configura uma
problemática relacionada à interação entre mente/corpo, que reverbera uma
concepção de ser humano. Deste modo, o problema dos qualia contribui para
pensarmos o conhecimento humano, considerando o sujeito que interage e tem
experiências, afinal, segundo tal concepção, o ser humano, embora seja um
mecanismo físico, possui propriedades que são irredutíveis. Os seres humanos
seriam dotados de crenças, sensações, isto é, propriedades mentais que não se
reduziriam aos processos físicos e/ou funcionais. Em suma, tal perspectiva nos
auxilia a refletir sobre as qualidades subjetivas adquiridas de nossas interações
no mundo.
This paper deals with the argument of the zombies and the argument
about the explanatory gap concerning the qualia problem. The argument of the
zombies consists in exploring the hypothesis of the possibility of existence of
identical replicas of the human being, however, that would be deprived of
perceptions with phenomenal qualities, that is, they would not have qualia.
Therefore, they would be similar in the physical and functional sense to the
human being, however they would not have consciousness. Exposed the mental
experiment on zombies, we present the argument about the explanatory gap that
contributes to the understanding of the qualia problems. The argument of the
explanatory gap consists in the defense that the understandings and explanations
about the physical processes, such as the production of hormones, synapses,
etc., can not explain the qualia, do not include the properties intrinsic to the
experience, such as the sensation of pain. Thus, a brain stimulus of pain is a
physical process that does not exhaust an individual's understanding of pain, that
is, the physical process that provides the pain does not explain the mental
property of pain. Both arguments, whether the philosophical hypothesis about
the existence of zombies or the explanatory gap, are based on the assumption of
58
the existence of qualia, the phenomenal qualities of experience, subjective
qualities such as the pain of pain, blue blueness or the taste of a fruit. Such
qualities relate to our mental properties irreducible to physical processes. This
configures a problem related to the interaction between mind / body, which
reverberates a conception of human being. Thus, the qualia problem contributes
to human knowledge, considering the subject that interacts and has experiences,
after all, according to this conception, the human being, although it is a physical
mechanism, has properties that are irreducible. Human beings would be
endowed with beliefs, sensations, that is, mental properties that would not be
reduced to physical and / or functional processes. In short, such a perspective
helps us to reflect on the acquired subjective qualities of our interactions in the
world.
USO DO BIG DATA PARA DESENVOLVIMENTO DE
COMPETÊNCIA EM INFORMAÇÃO: UMA ANÁLISE DE
DADOS DE RECURSOS HUMANOS
USE OF BIG DATA FOR THE DEVELOPMENT OF
INFORMATION COMPETENCE: AN ANALYSIS OF HUMAN
RESOURCES DATA
Pôster / Poster
ALMEIDA, Maria Fabiana Izidio de.
Unesp / Marília
DAVANZO, Luciana.
Unesp / Marília
BOTEGA, Leonardo Castro.
Univem, Unesp / Marília
SILVA, Mardlla de Sousa.
UTFPR
Nos dias atuais as organizações privadas utilizam-se de várias
tecnologias para input, consultas, alterações e, coletas de suas informações.
Especificamente, o setor de recursos humanos abarca e gerencia todo o corpo
59
colaborativo das organizações, logo armazena desde dados pessoais, cargos,
salários, escolaridade, entre outros altamente relevantes ao desenvolvimento da
organização e de seus colaboradores, isso em modernos sistemas de recursos
humanos. Os recursos humanos também são responsáveis por desenvolver e
capacitar seus colaboradores. Dentre as capacitações possíveis acredita-se que
desenvolver nos colaboradores a competência em informação (CoInfo) é um
diferencial às organizações, pois terão em seu quadro colaborativo pessoas
capazes de coletar, selecionar, filtrar e, utilizar informações úteis no
desenvolvimento de suas atividades, tornando seus processos mais eficientes,
eficazes e produtivos. Para tanto, os recursos humanos necessitam desenvolver
programas que abarcam conceitos técnicos, mas também pessoais e, para isso
tem a possibilidade de analisar dados dos seus sistemas de recursos humanos.
Em tecnologia da informação os dados de sistemas de informação em grande
volume são chamados de big data, que refere-se a um grande conjunto de
dados armazenados. O ato de recolher e armazenar grandes quantidades de
informações para eventual análise de dados é bem antigo, porém o conceito
ganhou força somente no início dos anos 2000, quando um analista famoso
deste setor, Doug Laney, articulou a definição de big data como os cinco V’s:
volume, velocidade, variedade, veracidade e valor. Diante desse cenário
questiona-se: o setor de recursos humanos gerencia seus dados de tal modo que
pode elaborar estratégias para desenvolver competências e habilidades nos seus
colaboradores? Identificar quais dados de recursos humanos são pertinentes para
desenvolver a competência em informação nos colaboradores e, como podem
ser utilizados é o objetivo geral norteador desta pesquisa. Para tanto, utilizar-se-
á de revisão bibliográfica no intuito de compor um referencial teórico em torno
de competência em informação, big data e recursos humanos, a partir de
levantamento de trabalhos pertinentes a esta pesquisa nos anais do Encontro
Nacional de Pesquisa em Ciência da Informação, na base de dados BRACPI e
na revista científica “Revista de Administração” da Universidade de São Paulo
e, outras fontes contributivas a essa pesquisa, tais como o Journal of thre
Brazilian Computer Society, da área de tecnologia da informação. Espera-se
como resultado obter uma relação de dados fundamentais para as organizações
que pretendem estabelecer estratégias para desenvolver a competência em
informação nos seus colaboradores, de maneira que esses passam a executar
suas atividades com mais habilidades, agilidade e segurança.
Nowadays, private organizations use various technologies for input,
queries, changes and the collection of their information. Specifically, the human
resources sector encompasses and manages the entire collaborative body of
organizations, so it stores from personal data, positions, salaries, schooling,
among others highly relevant to the development of the organization and its
collaborators, in modern human resource systems. Human resources are also
responsible for developing and training their employees. Among the possible
60
capacities it is believed that developing the information competence (CoInfo) is
a differential to the organizations, as they will have in their collaborative
framework people able to collect, select, filter and use information useful in the
development of their activities, making efficient, effective and productive
processes. In order to do this, human resources need to develop programs that
cover technical concepts, but also personal ones, and for this purpose it has the
possibility to analyze data from its human resources systems. In information
technology data from large-volume information systems are called big data,
which refers to a large set of stored data. Collecting and storing large amounts
of information for eventual data analysis is quite old, but the concept gained
momentum only in the early 2000s when a leading analyst in this industry,
Doug Laney, articulated the definition of big data as the five V's: volume, speed,
variety, veracity and value. Given this scenario, it is questioned: does the human
resources sector manage its data in such a way that it can devise strategies to
develop skills and abilities in its employees? Identify which human resource
data are relevant to develop the information competence in the collaborators and
how they can be used is the general objective of this research. In order to do so,
it will be used a bibliographical review in order to compose a theoretical
reference around competence in information, big data and human resources,
based on the survey of works pertinent to this research in the annals of the
National Meeting of Science Research in the BRACPI database and in the
scientific journal "Revista de Administração" of the University of São Paulo and
other sources contributing to this research, such as the Journal of the Brazilian
Computer Society in the field of information technology. As a result, it is hoped
to obtain a list of fundamental data for the organizations that intend to establish
strategies to develop the competence of information in its collaborators, so that
they begin to execute their activities with more skills, agility and security.
A AÇÃO HUMANA NA CONSTRUÇÃO DO CONHECIMENTO
SOB A PERSPECTIVA DA ANÁLISE DE CITAÇÃO
HUMAN ACTION IN THE CONSTRUCTION OF KNOWLEDGE
UNDER THE PERSPECTIVE OF CITATION ANALYSIS
Pôster / Poster
ALVES, Bruno Henrique.
UFF
MESCHINI, Fabio Orsi.
Unesp / Marília
61
Partindo-se do princípio de que a Organização do Conhecimento é um
Campo Científico constituído por elementos sistematizados que contribuem para
a materialização, socialização e construção de conhecimento por meio da ação
humana, tendo como perspectiva que o homem passe a compreender o contexto
que esta inserido. Com isso, torna-se evidente que tal cenário está permeado por
influências que irão direcionar a produção científica do Campo, determinando
quais temas, conceitos e agentes são relevantes. Os métodos bibliométricos
fornecem subsídios para a análise da referida produção, possibilitando a relação
entre artigos e agentes e, consequentemente, explicitando as relações semânticas
existentes que, por sua vez, são influenciadas pelo contexto social e/ou
científico no qual o conhecimento é construído/sistematizado. Ao considerar-se
a análise de citação como uma Organização do Conhecimento que propicia
elementos sociais, objetiva-se discorrer sobre a importância das citações e
citantes como fatores humanos que ressaltam as decisões dos pesquisadores,
geralmente envoltas pela seleção de interesses e pontos de vista, em detrimento
de outros. Embora a Bibliometria e a Organização do Conhecimento sejam
Campos distintos, a primeira, por meio da análise de citações, pode ser
reconhecida como uma das abordagens possíveis para a segunda, já que as
relações de citação exprimem características indiretas da relação entre sujeito e
semântica, onde se pode observar a relevância social, de autoridade e poder,
demonstrando as tendências dos Campos Científicos. Destaca-se que as
aplicações dos métodos bibliométricos ocorrem na literatura científica
publicada, que traz em sua estrutura argumentações e contestações expressas
pelos agentes e reconhecidas pelos pares, além da possibilidade de rastreamento
das bases teóricas deste conhecimento elaborado, por meio das referências
bibliográficas. Tais resultados bibliométricos permitem a compreensão da
organização do assunto produzido por determinada área científica, afinal a
identificação de conceitos, termos e suas relações estão exteriorizados na
literatura. Salienta-se, ainda, que as mudanças nas estruturas conceituais são
recorrentes e a análise de citação representa um elemento dinâmico para
apreender tais mudanças por meio do mapeamento científico. Conclui-se que os
métodos bibliométricos, e mais especificamente a análise de citação, por meio
dos citados e citantes, constitui um tratamento social que propicia elementos
cooperativos praticados pelos agentes, sendo considerados uma abordagem
social da Organização do Conhecimento, na medida em que indicam o peso da
ação humana na construção de conhecimento científico.
Assuming that the Knowledge Organization is a Scientific Field made
up of systematized elements that contribute to the materialization, socialization
and construction of knowledge through human action, with the perspective that
man will be able to understand the context where he is inserted. Therefore, it
becomes evident that such a scenario is permeated by influences that will direct
the scientific production of this field, determining which themes, concepts and
62
agents are relevant. The bibliometric methods provide a basis for the analysis of
this production, allowing the relation between articles and agents and,
consequently, explaining the existing semantic relations that are influenced in
turn by the social and / or scientific context in which knowledge is constructed /
systematized. Considering the citation analysis as a Knowledge Organization
that provides social elements, it aims to discuss the importance of citations and
citers as human factors that highlight the decisions of researchers, usually
surrounded by the selection of interests and points of view to the detriment of
others. Although Bibliometrics and the Knowledge Organization are distinct
fields, the first, through the analysis of citations, can be recognized as one of the
possible approaches to the second once the citation relations express indirect
characteristics of the relation between subject and semantics, where it is
possible to observe the social relevance of authority and power, demonstrating
the trends of the Scientific Fields. It is worth noting that the applications of
bibliometric methods occur in the published scientific literature, which brings in
its structure arguments and contestations expressed by the agents and
recognized by the peers, besides the possibility of tracing the theoretical bases
of this elaborated knowledge, through bibliographical references. Such
bibliometric results allow the understanding of the organization of the subject
produced by a certain scientific area once all the identification of concepts,
terms and their relations are externalized in the literature. It is also emphasized
that the changes in conceptual structures are recurrent and the citation analysis
represents a dynamic element to apprehend such changes through scientific
mapping. In conclusion, the bibliometric methods, and more specifically the
citation analysis, through the cited and citers, constitutes a social treatment that
provides cooperative elements practiced by the agents, being considered a social
approach of the Knowledge Organization, in that they indicate the weight of
human action in the construction of scientific knowledge.
DA DOCUMENTAÇÃO A CIÊNCIA DA INFORMAÇÃO NO
BRASIL: UMA ANÁLISE CONCEITUAL
FROM DOCUMENTATION TO INFORMATION SCIENCE IN
BRAZIL: A CONCEPTUAL ANALYSIS
Pôster / Poster
ALVES, Marcus Rei de Lima.
Unesp / Marília
ALMEIDA, Carlos Cândido de.
Unesp / Marília
63
Entende-se por Ciência da Documentação, a compreensão de todos os
trabalhos relacionados com o tratamento dos documentos (livros, artigos,
fotografias, filmes etc.), iniciado no final do século XIX por Paul Otlet (1868-
1944) e Henri La Fontaine (1854-1943), para uma melhor organização do
acervo e atendimento aos usuários. A Ciência da Informação, como a ciência de
natureza interdisciplinar, preocupada com os conceitos fundamentais
relacionados à informação para se constituir em uma ciência consolidada,
depende de estudos de suas ‘ramificações’, tais como a biblioteconomia,
arquivologia etc. Sobre a confluência entre a Ciência da Informação e a Ciência
da Documentação no Brasil, ainda precisa ser respondida determinadas questões
históricas. Neste sentido, quais são as motivações históricas e epistemológicas
do surgimento e desenvolvimento da Ciência da Documentação na Ciência da
Informação no Brasil? Será que as mudanças da nomenclatura desta área foram
realmente conceituais? A informação é um conceito comum entre muitas áreas
(comunicação, linguística, semiótica, ciência da computação etc.). Há uma
imensa dificuldade, por exemplo, em estabelecer epistemologias - conceituais e
teóricas - com o grande avanço das tecnologias modernas. Pensa-se, também,
em uma discussão sobre a conceitualização da Ciência da Informação, pois
muitos autores dessa literatura a defendem com conceitos contextuais (dado o
momento), e outros não. Este estudo objetiva esclarecer as características, assim
como os paradigmas entre os campos de ação da Ciência da Documentação e da
Ciência da Informação, trazendo tais discussões. Para tanto, deve-se verificar
por que aconteceram tantas ambiguidades terminológicas e conceituais nestas
áreas. Neste sentido, observam-se mudanças nas denominações, a saber da
Escola de Biblioteconomia da UFMG (1950-2000), que passou a chamar-se
Escola de Ciência da Informação. Como resultados parciais, espera-se apontar
as justificativas do processo de mudança da Ciência da Documentação para a
Ciência da Informação no Brasil, no final do século XX, bem como o
aparecimento de termos e conceitos relacionados. Essa passagem histórica não
foi bem compreendida por especialistas da área, pelo viés histórico e
epistemológico, o qual é esboçado nesta pesquisa.
The term Documentation Science for the understanding of all
works/actions related to the treatment of documents (books, articles,
photographs, films, etc.), begun in the late 19th century by Paul Otlet (1868-
1944) and Henri La Fontaine (1854-1943), for better organization of the
collection and service to the users. Information Science, as the science of
interdisciplinary nature, concerned with the fundamental concepts (for example,
the information itself) related to information to constitute a consolidated
science, depends on studies of its “ramifications”, such as librarianship,
archiving, etc. On the confluence between Information Science and
64
Documentation Science in Brazil, the historical question still needs to be
answered. In this sense, what are the historical and epistemological motivations
of the emergence and development of Documentation Science in Information
Science in Brazil? Have the changes of the nomenclature of this area been
conceptual? Information is a common concept among many areas
(communication, linguistics, semiotics, computer science, etc.). There is an
immense difficulty, for example, in establishing epistemologies - conceptual and
theoretical - with the great advance of modern technologies. It is also thought in
a discussion about the conceptualization of Information Science, since many
authors of this literature defend it with contextual concepts (given the moment),
and others do not. This study aims to clarify the characteristics, as well as the
paradigms between the fields of action of Documentation Science and
Information Science, bringing such discussions. In order to do so, it must be
verified why so many terminological and conceptual ambiguities have occurred
in these areas. In this sense, there are changes in the denominations, namely the
“Library School of UFMG (1950-2000)”, which became known as the School of
Information Science. As partial results, it is hoped to point out the justifications
for the process of change from Documentation Science to Information Science
in Brazil at the end of the 20th century, as well as the emergence of related
terms and concepts. This historical passage was not well understood by
specialists in the area, due to the historical and epistemological bias, which is
outlined in this research.
METADADOS NO CONTEXTO DO BIG DATA: ANÁLISE DA
APLICAÇÃO DO PADRÃO DUBLIN CORE
METADATA IN THE CONTEXT OF THE BIG DATA:
ANALYSIS OF THE APPLICATION OF THE DUBLIN CORE
STANDARD
Comunicação Oral / Oral Communication
ALVES, Rachel Cristina Vesu.
Unesp / Marília
CONEGLIAN, Caio Saraiva.
Unesp / Marília
SEGUNDO, José Eduardo Santarem.
USP
65
Um dos desafios contemporâneos enfrentados por diversas áreas,
refere-se a disponibilização de dados no contexto do Big Data. Com uma
quantidade cada vez mais crescente de dados, o Big Data possibilita o acesso a
dados estruturados e não estruturados, que tem o potencial de auxiliar nas
tomadas de decisões em diversos setores como, por exemplo, no setor
governamental, no setor da saúde, no setor privado entre outros. Entretanto,
quanto mais dados estruturados estiverem disponíveis no Big Data melhor serão
as possibilidades de encontrar informações relevantes e que agreguem valor em
uma tomada de decisão. Assim, o problema deste estudo é verificar como os
padrões de metadados podem contribuir para proporcionar a estruturação dos
dados no Big Data. A hipótese é que os dados estruturados, vindos de padrões
de metadados emergentes e consolidados internacionalmente, são fatores
preponderantes para proporcionar uma melhor qualidade no acesso e na
recuperação dos dados no Big Data. O objetivo é analisar a relação dos dados
estruturados, semiestruturados e não estruturados com os metadados do padrão
Dublin Core e como os dados estruturados por esse padrão podem contribuir nas
análises de Big Data. A metodologia constitui-se como exploratória e descritiva,
com análise bibliográfica sobre os temas metadados, metadados estruturados,
padrão de metadados Dublin Core e Big Data. Como resultados destaca-se que
os metadados estruturados de padrões emergentes como o Dublin Core, podem
contribuir para aprimorar a qualidade de representação dos dados e seus valores,
contribuindo para uma maior e melhor eficiência das análises de dados
realizadas no Big Data. As análises de dados no contexto do Big Data utilizam
dados diversos: estruturados, semiestruturados, não estruturados e busca analisar
suas relações. Portanto, o uso de metadados estruturados possibilitará maior
agregação de valores nos dados e seus relacionamentos no Big Data, além de
uma representação mais padronizada no Big Data, favorecendo a
interoperabilidade.
One of the contemporary challenges faced by several areas is the
availability of data in the context of Big Data. With an ever-increasing amount
of data, Big Data provides access to both structured and unstructured data,
which has the potential to assist in decision-making in a variety of sectors, such
as the government sector, the health sector, in the private sector among others.
However, with more structured data being available in Big Data, there is better
chances of finding relevant information and adding value to a decision-making
process. Thus, the problem of this study is to verify how metadata patterns can
contribute to the structuring of data in Big Data. The hypothesis is structured
data, coming from emerging and internationally consolidated metadata
standards, are preponderant factors in providing better data access and retrieval
in Big Data. The objective is to analyze the relationship of structured, semi-
66
structured and unstructured data to Dublin Core metadata and how the data
structured by this standard can contribute to Big Data analyzes. The
methodology is exploratory and descriptive, with bibliographic analysis on the
topics metadata, structured metadata, Dublin Core metadata standard and Big
Data. The results show that structured metadata of emerging standards such as
the Dublin Core can contribute to improve the quality of data representation and
its values, contributing to a greater and better efficiency of data analysis
performed in Big Data. Data analysis in the context of Big Data uses diverse
data: structured, semi-structured, unstructured and seeks to analyze their
relationships. Therefore, the use of structured metadata will allow greater
aggregation of values in the data and their relationships in Big Data, in addition
to a more standardized representation in Big Data, favoring interoperability.
EPISTEMOLOGIA E ANÁLISE DO DOMÍNIO
EPISTEMOLOGY AND DOMAIN ANALYSIS
Comunicação Oral / Oral Communication
AMORIM, Igor.
UFSC
MEDEIROS, Marisa Brascher Basilio.
UFSC
Entre vinhos antigos e garrafas novas, a dúvida sobre a novidade
trazida pela Análise de Domínio hjorlandiana perdura. Desde a formalização da
proposta, várias foram as discussões em torno da Análise de Domínio e a real
contribuição da mesma para a Ciência da Informação. Essa discussão pode ser
vista sob diferentes aspectos: conceitual, metodológico, instrumental,
proposicional, por exemplo. Nesta pesquisa enfoca-se a dimensão conceitual,
especificamente, conceitos oriundos da epistemologia. Em diversas
oportunidades Hjorland afirma que um domínio se estrutura por abordagens
epistemológicas, que podem ser reconhecidas a partir de quatro correntes
predominantes: a racionalista, a empirista, a historicista e a pragmatista (por
vezes acrescenta uma quinta, o ecletismo ou pós-moderna). Buscamos
compreender qual a relação entre essas correntes epistemológicas e a Análise de
Domínio em artigos escritos por Hjorland. Dessa forma, objetivamos: a)
levantar textos sobre a Análise de Domínio de autoria de Hjorland; b) identificar
o que esses textos abordam sobre epistemologia e as correntes; c) estabelecer o
objetivo dessas correntes no processo de Análise de Domínio. Esta pesquisa
67
configura-se como exploratória, bibliográfica, e utiliza como método de
tratamento dos dados a análise de conteúdo. Levantamos os textos na Library
and Information Science Abstracts pelo descritor “Hjorland” restrito ao campo
autor, a partir de 1990, período a partir do qual a Análise de Domínio é
formalizada como proposta. Os artigos recuperados foram sistematizados e
filtrados: eliminou-se todo material que não é artigo (excluiu-se resenhas e
editoriais), textos que foram recuperados mas que não correspondiam ao autor
requerido e que não tratassem especificamente do processo de Análise de
Domínio. Destaca-se que poucos artigos discutem as correntes com
profundidade, contudo identificou-se que o principal objetivo das correntes em
Hjorland é a concepção de categorias analíticas, cujo papel é organizar os
discursos presentes em um domínio. A formulação de categorias analíticas
demonstra que o dinamarquês propõe uma forma para realização de análises
críticas, nas quais é possível identificar relações de poder manifestas por
paradigmas. Há outras maneiras de reconhecer relações de poder disponíveis nas
Ciências Sociais e Humanidades, contudo em Hjorland a discussão é
formalizada por categorias epistemológicas. Esta pesquisa se justifica pela
relevância que a Análise de Domínio tem na Ciência da Informação, hoje
representando uma tendência na área. Todavia, a questão metodológica não está
bem resolvida. Isso devido ao uso predominante de estudos bibliométricos e
cientométricos para o reconhecimento dos domínios. Os métodos métricos de
análise de informação já eram usados antes da formulação da Análise de
Domínio. Desde a década de 1960 pesquisadores destacam a importância desses
estudos para o mapeamento das relações em comunidades científicas. O uso das
métricas para o reconhecimento dos domínios é de grande valor para a Ciência
da Informação, contudo a ausência de outros métodos e instrumentos coloca em
cheque a real novidade advogada pela Análise de Domínio. Por este estudo,
enfocar a dimensão epistemológica, corrobora-se uma compreensão ainda pouco
explorada e, assim, a pesquisa ratifica a diversificação de aplicações da Análise
de Domínio.
Between old wines and new bottles, doubt about the novelty brought by
the hjorlandian Domain Analysis persists. Since the proposal was formalized,
several discussions were around Domain Analysis and its real contribution to
Information Science. This discussion can be seen on different fronts:
conceptual, methodological, instrumental, propositional, etc. This research
focuses on the conceptual dimension, specifically concepts derived from
epistemology. On several occasions Hjorland asserts that a domain is structured
by epistemological approaches, which can be recognized from four predominant
currents: the rationalist, the empiricist, the historicist and the pragmatist
(sometimes it adds a fifth, eclecticism or postmodern). We seek to understand
the relation between these epistemological currents and Domain Analysis in
articles written by Hjorland. In this way, we aim to: a) raise texts on Domain
68
Analysis authored by Hjorland; b) identify what these texts cover about
epistemology and currents; c) establish the purpose of these chains in the
process of Domain Analysis. This research configures itself as exploratory,
bibliographical, and uses as a data processing method the content analysis. We
raise the texts in the Library and Information Science Abstracts by the
descriptor "Hjorland" restricted to the author field, from 1990, the period from
which the Domain Analysis is formalized like a proposal. The retrieved articles
were systematized and filtered: all non-article material (reviews and editorials)
were deleted, texts that were retrieved but did not correspond to the requested
author and did not specifically address the Domain Analysis process. It is
noteworthy that few articles discuss the currents with depth, however it has been
identified that the main objective of the currents in Hjorland is the conception of
analytical categories, whose role is to organize the present discourses in a
domain. The formulation of analytical categories demonstrates that the Danish
proposes a way to perform critical analyzes, in which it is possible to identify
relations of power manifest by paradigms. There are other ways of recognizing
power relations available in the Social Sciences and Humanities, but in Hjorland
the discussion is formalized by epistemological categories. This research is
justified by the relevance that the Domain Analysis has taken in Information
Science, today representing a trend in the area. However, the methodological
question is not well resolved. This is the aspect the predominant use of
bibliometric and scientometric studies for domain recognition. The metric
methods of information analysis were already used before the formulation of
Domain Analysis. Since the 1960s researchers have highlighted the importance
of these studies for the mapping of relationships in scientific communities. The
use of metrics for the recognition of domains is of great value for Information
Science, however the absence of other methods and instruments puts in check
the real novelty advocated by Domain Analysis. This study focuses on the
epistemological dimension, corroborating an understanding still little explored
and, thus, the research ratifies the diversification of applications of Domain
Analysis.
QUANTIFICAÇÃO NAS MÁQUINAS POR SHANNON A
PARTIR DO PENSAMENTO BOOLEANO
QUANTIFICATION IN THE MACHINES BY SHANNON FROM
THE BOOLEAN THOUGHT
Pôster / Poster
ANTONIO, Daphne Martins Batista.
Unesp / Marília
69
O ciberneticista Shannon foi o engenheiro que originalmente aplicou o
cálculo lógico booleano em circuitos elétricos, quando percebeu que os valores
lógicos expressos por 1 e 0 poderiam ser aplicados aos relés eletromagnéticos
dos computadores, de forma a simular operações do pensamento. Esta aplicação
foi motivada da sua leitura de Boole, An Investigation of The Laws of Thought
(1854). No texto A Symbolic Analysis of Relay and Switching Circuits (1938),
ele propôs a aplicação deste cálculo aos relés. O problema que enfrentou foi o
network synthesis, o qual necessitava que os relés possuíssem menos contatos
possíveis e pudessem continuar operando conforme suas características. Cada
circuito é representado por um conjunto de equações, nas quais os termos
estabelecem o contato com os relés e muda os circuitos. Como já escrito, o
cálculo aplicado à essas equações é o de Boole, a partir dos termos 0 e 1, para a
função de interruptor dos circuitos. É feita uma analogia para que essa aplicação
seja realizada. Os circuitos no sistema de Shannon são interpretados a partir das
proposições da lógica formal booleana, constituindo assim uma outra analogia, a
de que as operações lógicas são correspondentes do funcionamento da mente.
Shannon & Weaver, em A Teoria Matemática da Comunicação (1975), também
se preocupa com os aspectos engenhosos - e materiais - da teoria, conceituando
a própria informação transmitida (por um sistema familiar ao anterior explicado,
visto que também pode se tratar de transmissão através da eletricidade nos relés)
a partir de sua quantificação necessária para os parâmetros do canal. A
codificação proposta por Shannon, a partir da leitura de Turing, também utiliza
uma linguagem binária na ativação dos relés a fim de transmitir a informação
através da corrente elétrica. Shannon não aborda a informação transmitida na
comunicação pelo significado, mas para que tornasse a melhor forma em seus
objetivos, ou seja, sua transmissão sucedida sintática, semântica e efetivamente.
O caráter da quantificação se expressa de modo recorrente para indicar as
interpretações para suas reproduções nas máquinas; Boole interpreta as leis
gerais da lógica em analogia às próprias leis das operações do pensamento.
Shannon aplica seu modelo e método para simular as operações em uma
máquina, extrapolando os propósitos de Boole ao utilizar esses processos como
meio de possibilitar a manipulação e extração da informação em mensagens -
como uma mensagem em um texto, ou uma conversa ao telefone.
The cyberneticist Shannon was the engineer who originally applied
Boolean logic in electrical circuits, when he realized that the logical values
expressed by 1 and 0 could be applied to the electromagnetic relays of
computers, in order to simulate operations of thought. This application was
thought from his reading of Boole, An Investigation of The Laws of Thought
(1854). In the text A Symbolic Analysis of Relay and Switching Circuits (1938),
he proposed the application of the calculus to the relays. The problem faced was
70
of network synthesis, which required the relays to have as less contacts as
possible and could continue to operate according to their characteristics. Each
circuit is represented by a set of equations, in which the terms establish contact
with the relays and change the circuits. As already written, the calculation
applied to these equations is that of Boole, from the terms 0 and 1, for the circuit
switch function. An analogy is performed for this application be made, the
circuits in the Shannon's system are interpreted from the propositions of
Boolean formal logic, thus constituting another analogy, that the logical
operations correspond to the functioning of the mind. Shannon & Weaver, in A
Teoria Matemática da Comunicação (1975), is also concerned with the
ingenious - and material - aspects of theory, conceptualizing the transmitted
information itself (by a system familiar to the one explained before, since it can
also treat transmission through the electricity in the relays) from its required
quantification in the channel parameters. The coding proposed by Shannon,
from a Turing reading, also uses a binary language in the activation of the relays
in order to transmit the information through the electric current. Shannon does
not consider the information conveyed in communication by meaning, but rather
to make the best form in its objectives, that is, its successful transmission
syntactically, semantically and effectively. The character of the quantification is
expressed in a recurrent way to indicate the interpretations for its reproductions
in the machines. Boole interprets the general laws of logic in analogy with those
of the operations of thought. Shannon applies his model and method to simulate
operations on a machine, extrapolating the purposes of the former by using such
processes as a means of manipulating and extracting information in messages -
such as a text message or a telephone conversation.
A VULNERABILIDADE DOS DADOS PESSOAIS: UMA
ANÁLISE A PARTIR DOS UNIVERSOS CIENTÍFICO E
JORNALÍSTICO
THE VULNERABILITY OF PERSONAL DATA: AN ANALYSIS
FROM THE SCIENTIFICAL AND JOURNALISTIC UNIVERSES
Pôster / Poster
BAGATINI, José Augusto.
Unesp / Marília
GUIMARÃES, José Augusto Chaves.
Unesp / Marília
71
A partir da década de 1990, com a popularização da internet e das
tecnologias da informação, o uso constante de soluções informatizadas gerou
uma maior quantidade de dados de natureza pessoal, reveladores de atos do
cidadão e de suas características físicas e de personalidade (DONEDA, 2011).
Como consequência, o segmento mercadológico de serviços digitais
rapidamente aprendeu a capturar e tratar tais dados, de modo a identificar
necessidades, construindo modelos de negócio voltados à vigilância, por meio
da captura de dados pessoais (BAUMAN, 2014). Os dados pessoais assumiram,
então, características de bem de consumo, com alto valor monetário e segmento
mercadológico próprio, assemelhando-se ao mercado da informação ambiente
em que a demanda de informação passa a ser determinada por sua oferta
(BARRETO, 2000). Com isso, apresenta-se o problema de as informações
pessoais dos cidadãos encontrarem-se cada vez mais vulneráveis, sendo
utilizadas por terceiros para fins diversos, levando à necessidade de se
averiguar, como essa questão relativa a vigilância informacional e venda de
dados pessoais se coloca no mundo acadêmico, no mundo cotidiano e no mundo
tecnológico especializado. Para tanto, parte-se de uma revisão de literatura sobre
dados pessoais, mercado da informação, vigilância informacional, em âmbito
internacional, a partir de busca nas bases LISA, Web of Science e Scopus, entre
2009 e 2017. Esse universo científico é comparado com o tecnológico
especializado por meio dos sites Olhar digital, Tecmundo e Techtudo. O recorte
temporal a partir de 2009 justifica-se com base na ponderação de Pariser (2012)
de ter sido esse o ano de mudança de estrutura de pesquisa do Google a partir
das preferências de pesquisa do usuário, o que contribuiu para a formação de um
perfil de coleta de dados que passou a se prestar a fins outros que os da
pesquisa. A partir desse universo, tem-se a aplicação da metodologia de Análise
de Conteúdo (BARDIN, 2009), de modo a identificar as categorias temáticas
que se colocam no tratamento dessa questão. Os resultados parciais revelam um
restrito conjunto de artigos científicos (18 artigos) o que contrasta com as
notícias oriundas do universo especializado (68). As principais abordagens
identificadas na revisão da literatura científica tratam especificamente do valor e
mecanismos de captura dos dados pessoais e como o direito à privacidade está
ameaçado. Por outro lado, as principais abordagens dos jornais tecnológicos
especializados referem-se aos vazamentos de dados pessoais, seus impactos e
maneiras de mitiga-los. Portanto, ao comparar os cenários, podemos inferir,
mesmo que de forma inicial, que as discussões científicas não caracterizam as
atividades de vigilância digital e o mercado de dados pessoais como agentes
motivadores para casos de violações de dados pessoais.
From the 90s, with the popularization of internet and information
technologies, the constant use of computerized solutions created a greater
amount of personal data, related to the citizens' acts and their physical and
personality characteristics (DONEDA, 2011). As a consequence, the market
72
segment of digital services quickly learned how to capture and process such data
in order to identify needs, and building business models for (BAUMAN, 2014).
In this context, personal data have assumed characteristics of consumer goods,
with high monetary value and its own market segment, resembling the market
for environmental information in which the information demand is determined
by its supply (BARRETO, 2000). As a consequence, it arises the problem of the
increasing vulnerability of personal information of citizens, which started to be
used for different purposes. It leads to the need to investigate how this issue on
informational surveillance and sale of personal data is placed in the academic
world, as well as in the specialized technological world. Therefore, na
international literature review on personal data, information market, information
surveillance was carried out based on LISA, Web of Science and Scopus
databases, between 2009 and 2017. This scientific universe is compared to the
specialized technology through the sites Olhar Digital, Tecmundo and Techtudo.
The time frame from 2009 is justified based on the Pariser’s (2012) statement
that this was the year that Google changed its search structure from relevance
based on citation incidence to user personal search preferences, which
contributed to the formation of a profile of data collection that started to provide
for purposes other than those of the research. From this universe, Content
Analysis methodology (BARDIN, 2009) was apllied, in order to identify the
subject categories that are put in the treatment of this question. The partial
results show a narrow set of scientific articles (18 articles) in contrast to those
from the specialized news universe (68). The major subject approaches in the
scienfic literature are specifically about the value and mechanisms of capturing
personal data and how the right to privacy is threatened. On the other hand, the
main approaches of the specialized technological journals refer to the leaks of
personal data, their impacts and ways of mitigating them. This scenario shows
that, preliminarily, we can infer that there is a lack of scientific discussion that
characterizes the activities of digital surveillance and the market of personal
data as motivating agents for cases of personal data breaches.
O PROCESSO DE INTELIGÊNCIA COMPETITIVA COMO
FERRAMENTA ESTRATÉGICA FRENTE AO BIG DATA EM
MICRO E PEQUENAS EMPRESAS
THE COMPETITIVE INTELLIGENCE PROCESS AS A
STRATEGIC TOOL FOR BIG DATA IN MICRO AND SMALL
ENTERPRISES
Comunicação Oral / Oral Communication
BARBOZA, Manuela Regina.
73
UCA
JORGE, Carlos Francisco Bitencourt.
Unesp / Marília, UCA
MACHADO, João Guilherme de Camargo Ferraz.
Unesp / Marília
Atualmente a procura pela praticidade, qualidade e bem-estar vem
aumentando com isso as vendas de comida online e através de aplicativos,
possibilitando assim, comodidades para as pessoas. O uso de aplicativos para
aquisição de bens e serviços pela internet tem sido chamado de e-commerce, em
menção ao termo mobile, com 25% das vendas realizadas por esse meio
pertencentes ao setor alimentício. Entrega, distribuição ou remessa de produtos
é conhecida atualmente como delivery e vem sendo muito utilizado devido a sua
praticidade. A ideia do delivery consiste em oferecer aos clientes as soluções
mais adequadas em diferentes situações, seja através da internet ou aplicativo,
mas sempre com foco em promover um trabalho que atenda todas as
necessidades e exigências dos consumidores. O software de delivery para
restaurantes procura garantir uma boa organização e agilidade na realização de
processos e entregas aos seus clientes, fidelizando assim os seus clientes e
garantindo novos pedidos. Com a propagação e utilização da internet a
utilização de sistemas de e-commerce se tornasse uma alternativa bastante
atrativa para empresas físicas entrarem no meio virtual, e com isso, trouxe um
aumento das vendas e fidelização de clientes. O delivery alimentício está sendo
adotado pelos restaurantes e lanchonetes, pois por meio dele é possível
aumentar o campo de entregas, contribuindo assim para o crescimento de
mercado. Além disso, existe um foco maior na otimização do processo de
delivery, que facilita a vida das pessoas que utilizam o serviço. Nesse sentido, o
estabelecimento que adota o aplicativo de delivery passa obter vantagens
competitivas, proporcionando maior agilidade nas entregas, aumento da
satisfação dos clientes e diferencial entre os concorrentes. Para que isso
aconteça é necessário ter um bom atendimento alinhando a uma plataforma que
atenda aos requisitos do estabelecimento, para proporcionar uma entrega rápida.
Com isso, a informação torna-se fundamental para que todos os processos atuem
em sintonia, desde a chegada do pedido até a sua entrega para o consumidor,
destaca-se que além das informações desse processo, alguns outros dados são
extraídos dos usuários. Após realizar a coleta das informações sobre o usuário e
seus pedidos, as mesmas são armazenadas para que possam ser utilizadas
posteriormente, com isso os aplicativos constroem gigantescas base de dados.
74
Com a coleta e armazenamento dos dados é possível construir um perfil para
cada usuário, e com isso que recebera indicações para possíveis itens de seu
interesse. Este perfil pode ser alterado dinamicamente com a integração do
sistema de delivery outros sistemas web, como por exemplo, redes sociais,
capazes de deixar rastros dos usuários/consumidores no ambiente da internet,
construindo assim uma enorme base de dados. Com esse grande número de
informações em diferentes bases de dados, torna-se necessário o uso do
processo de inteligência competitiva (IC) alinhando a ferramentas de Big Data,
uma vez que alinhadas podem auxiliar nos desafios apresentados por essas
grandes bases inseridas na internet, como o volume, variedade e valor frente as
necessidades de uso dessas organizações.
Currently, the search for practicality, quality and well-being has
increased the sales of food online and through applications, thus enabling
people's amenities. The use of applications for the acquisition of goods and
services over the Internet has been called e-commerce, in reference to the term
mobile, with 25% of the sales made by this means belonging to the food sector.
Delivery, distribution or shipment of products is known today as delivery and
has been widely used due to its practicality. The idea of delivery is to offer
customers the most appropriate solutions in different situations, either through
the internet or an application, but always focused on promoting a job that meets
all the needs and demands of consumers. The restaurant delivery software seeks
to ensure a good organization and agility in the execution of processes and
deliveries to its customers, thus loyalty to its customers and guaranteeing new
orders. With the spread and use of the Internet, the use of e-commerce systems
became a very attractive alternative for physical companies to enter the virtual
environment, and with that, it brought an increase in sales and customer loyalty.
Food delivery is being adopted by restaurants and snack bars, because through it
it is possible to increase the delivery field, thus contributing to market growth.
In addition, there is a greater focus on the optimization of the delivery process,
which facilitates the life of the people who use the service. In this sense, the
establishment that adopts the application of delivery passes to obtain
competitive advantages, providing greater agility in the deliveries, increase of
the satisfaction of the clients and differential between the competitors. For this
to happen you need to have good service by aligning with a platform that meets
the requirements of the establishment, to provide a fast delivery. With this,
information becomes fundamental for all processes to act in tune, from the
arrival of the request until its delivery to the consumer, it is highlighted that
besides the information of this process, some other data are extracted from the
users. After collecting information about the user and their requests, they are
stored so they can be used later, so the applications build a huge database. With
the collection and storage of data it is possible to build a profile for each user,
and with this you will receive indications for possible items of your interest.
75
This profile can be dynamically changed with the integration of the delivery
system other web systems, such as social networks, able to leave traces of users
/ consumers in the internet environment, thus building a huge database. With
this large number of information in different databases, it becomes necessary to
use the competitive intelligence process (CI) aligning the tools of Big Data,
since aligned can help the challenges presented by these large bases inserted in
the internet, such as volume, variety, and value against the needs of these
organizations.
A FOTOGRAFIA CIENTÍFICA COMO ORGANIZAÇÃO DO
CONHECIMENTO: SEU TRATAMENTO A PARTIR DA
TEMATIZAÇÃO
PHOTOGRAPHIC SCIENCE AS AN ORGANIZATION OF
KNOWLEDGE: ITS TREATMENT THROUGH
THEMATIZATION
Pôster / Poster
BENDER, Layra Andressa Paulino.
UEL
ALBUQUERQUE, Ana Cristina de. UEL
O documento fotográfico é utilizado em diversas áreas do
conhecimento, é considerada uma fonte de informação em pesquisas e fonte
histórica. Um artefato contém um fragmento da realidade, ou seja, a fotografia é
uma forma de representar determinada realidade. Podem conter informações
sobre esse fragmento que foi retratado na fotografia. A organização do
conhecimento tem como fruto a recuperação da informação, permitindo que as
informações do cotidiano sejam assimiladas e se tornem conhecimento. Essas
informações precisam ser devidamente organizadas, para facilitar a recuperação
da informação. Para auxiliar no processo de organização existem ferramentas
tais como: dicionários, enciclopédias, índices, catálogos, bases de dados. A
organização do conhecimento permite que a informação, resultante da atividade
humana seja registrada em livros, documentos, artigos. A fotografia científica
exerce um papel fundamental para o registro de assuntos, registrar e ilustrar
acontecimentos. É utilizada na produção científica. A função da análise dos
76
documentos fotográficos demostra o real sentido da imagem, onde na análise
deve extrair a maioria das informações contidas na imagem, determinando o
denotativo e conotativo da fotografia. Nesta pesquisa, busca a possibilidade de
definir a leitura de fotografias científicas: o seu tratamento a partir da
tematização, com o intuito de auxiliar pesquisadores na busca e acesso à
informação fotográfica. Ela também auxiliou no desenvolvimento histórico da
humanidade, registrando transformações sociais, científicas e tecnológicas no
período da Revolução Industrial, esteve presente nas pinturas rupestres nas
cavernas e até as imagens digitais no século XXI, nesse contexto houve um
aumento da quantidade no acervo de imagens. A imagem é uma forma de
representar as realidades concretas ou abstratas, ou seja, é uma forma de
representar a realidade, e por isso, podem ser registrados na fotografia, fatos
históricos, científicos. A fotografia permite que o usuário observe diversos
acontecimentos sem estar no local e na data que ocorreu determinado
acontecimento. Esperamos que essa pesquisa possa contribuir para a
recuperação e o acesso eficaz e eficiente ao acervo de fotografias, pois alguns
pesquisadores encontram dificuldades em recuperar esse conteúdo
informacional. A relevância dessa pesquisa está em verificar o processo de
análise e tematização de documentos fotográficos, e verificar as informações
que possam conter as fotografias científicas. Buscando contribuir com para a
organização da informação e do conhecimento dos documentos fotográficos. A
fotografia científica é considerada uma fonte informacional para diversas áreas
do conhecimento, pois se utilizam da fotografia como uma fonte de pesquisa
documental, onde o pesquisador busca informação em diferentes fontes
informacionais, incluindo a fotografia. Os temas que serão abordados no
decorrer dessa pesquisa, os estudos relacionados a temática foram desenvolvidas
em 2011, e por isso da necessidade de contribuir para demonstrar a importância
da utilização da tematização fotográfica nas fotografias científicas. Dessa forma,
facilitando o acesso ao documento fotográfico da mesma forma que outros tipos
de comunicação científica. A presente pesquisa tem como principal objetivo de
contribuir para a recuperação da fotografia científica de maneira precisa e
rápida, de acordo, com o tema, assunto que o usuário esteja buscando. E com
isso, suprir as necessidades informacionais do usuário.
The photographic document is used in several areas of knowledge, is
considered a source of information in research and historical source. An artifact
contains a fragment of reality, that is, photography is a way of representing a
certain reality. May contain information about this fragment that was pictured in
the photograph. The organization of knowledge results in the retrieval of
information, allowing the daily information to be assimilated and become
knowledge. This information needs to be properly organized to facilitate
retrieval of information. To help in the process of organization there are tools
such as: dictionaries, encyclopedias, indexes, catalogs, databases. The
77
organization of knowledge allows the information, resulting from human
activity to be recorded in books, documents, articles. Scientific photography
plays a key role in recording subjects, recording and illustrating events. It is
used in scientific production. The function of the analysis of photographic
documents demonstrates the real meaning of the image, where in the analysis it
must extract most of the information contained in the image, determining the
denotative and connotative of the photograph. In this research, it seeks the
possibility of defining the reading of scientific photographs: its treatment based
on the theme, with the purpose of assisting researchers in the search and access
to photographic information. It also helped in the historical development of
humanity, registering social, scientific and technological changes in the period
of the Industrial Revolution, was present in cave paintings in the caves and even
the digital images in the XXI century, in this context there was an increase in
the quantity in the collection of images. The image is a way of representing the
concrete or abstract realities, that is, it is a way of representing the reality, and
for that reason, historical, scientific facts can be recorded in photography. The
photograph allows the user to observe several events without being at the
location and the date that a certain event occurred. We hope that this research
can contribute to the recovery and efficient and effective access to the photo
collection, as some researchers find it difficult to recover this informational
content. The relevance of this research is to verify the process of analysis and
thematization of photographic documents, and verify the information that may
contain the scientific photographs. Seeking to contribute to the organization of
information and knowledge of photographic documents. Scientific photography
is considered an informational source for several areas of knowledge, since they
use photography as a source of documentary research, where the researcher
searches for information in different information sources, including
photography. The themes that will be approached in the course of this research,
the studies related to the theme were developed in 2011, and therefore the need
to contribute to demonstrate the importance of using thematic photography in
scientific photographs. In this way, facilitating access to the photographic
document in the same way as other types of scientific communication. The
present research has as main objective to contribute to the recovery of scientific
photography in a precise and fast way, according to the theme, subject that the
user is looking for. And with that, meet the informational needs of the user.
78
ACESSO E APROPRIAÇÃO DA INFORMAÇÃO: UM GRANDE
DESEQUILÍBRIO QUE REFLETE NA AÇÃO DO CIDADÃO
ACCESS AND APPROPRIATION OF INFORMATION: A
SUBSTANTIAL IMBALANCE REFLECTING ON CITIZENS’
SOCIAL ACTION
Pôster / Poster
BORGES, Ellen Valotta Elias.
Unesp / Marília
JÚNIOR, Oswaldo Francisco de Almeida.
Unesp / Marília
Com o advento da cibercultura, o compartilhamento de informações
por meio das modernas tecnologias de informação aumenta de forma
significativa a cada dia. Entretanto, esse aumento do acesso à informação não
pode ser igualado à construção de conhecimento que se dá pelo processo de
apropriação da informação. Nesse sentido, cabe diferenciar acesso e
apropriação. Acessar uma informação pode resultar diferentes significados
dependendo da forma como a informação é compreendida, pois, a liberdade de
acesso não garante uma capacidade de apropriação reflexiva. O processo de
compreensão, construção e apropriação da informação envolve não apenas
signos linguísticos, mas também elementos extralinguísticos, semânticos e
pragmáticos. Diante disso, pode-se afirmar que o leitor desempenha um papel
protagonista no processo de leitura e construção da informação. Não cabe
duvida de que o acesso é o primeiro passo para prosseguir. O problema está no
fato de que há um grande desequilíbrio entre acesso e apropriação. O
desenvolvimento tecnológico propicia cada vez mais diferentes meios de acesso,
por outro lado, o descaso pela educação produz uma grande dificuldade de
desenvolver uma competência em informação. Nesse sentido, nota-se que apesar
de muitas pessoas conseguirem o acesso, elas não conseguem ir além de seus
limites informacionais que muitas vezes são escassos. Precisa-se refletir que o
acesso por si só não produz conhecimento, ao contrário, cabe refletir que muita
informação pode representar mais desinformação que formação ou
transformação. O dilúvio informacional que a sociedade atual está vivenciando
contribui para uma atividade mecânica e superficial, sem tempo de realização de
leituras críticas e interpretativas que buscam o sentido nos detalhes ocultos atrás
das palavras. Toda essa situação produz na área da Ciência da Informação um
79
questionamento sobre a relação entre informação e sua manipulação. Frente esta
relação, considera-se que a mídia é um recurso de manipulação que cria
informações para monopolizar opiniões. Ou seja, não se pode garantir a
veracidade daquilo que acessamos diariamente. Estamos diante de uma falsa
democracia que beneficia pessoas de forma desigual.
With the advent of cyberculture, information-sharing through the use of
modern information Technologies is playing an increasing role. However, this
increasing access to information does not mean more knowledge, which is built
by the process of appropriation of information. In this way, it is necessary to
distinguish between access and appropriation. Accessing information may
result different meanings according to how information is understood, in other
words, freedom of access of information does not guarantee reflexive
appropriation. The process of understanding, construction and appropriation
involves not only linguistic but also, semantic and pragmatic signs. Faced with
this, it may be stated that reader plays a leading role in Reading process and
construction of information. There is no question that the access is the first step.
However, this is not the case. The main problem is the imbalance between
access and appropriation. On the one hand, technological development offers a
range of possibilities of access through various media; on the other hand, many
acts of negligence and indifference about education create a real difficulty to
develop the information literacy. Although we agree that most people can access
information, not all people can go beyond their information limits. It is
necessary to reflect that the access alone will not be enough for creating
knowledge. On the contrary, a lot of information can represent desinformation
instead of formation or transformation. Nowadays, information flooding
promotes mechanical and superficial activity without reflection actions by
critical readings that aim at the meaning beyond the written words. This entire
situation evokes a question about information and its manipulation in the
context of Information; According to this, it can be stated that media is a
manipulation element used for producing information in order to monopolize
opinions. That is, there is no guarantee that information is reliable and we are
living a false democracy that benefit people unequally.
AS NOVAS MÍDIAS E A MÍDIA DE MASSA: POSSIBILIDADES
DE INTERAGIR COM A INFORMAÇÃO, VISANDO A
CONQUISTA DA SUA APROPRIAÇÃO
MASS MEDIA AND NEW MEDIA: POSSIBILITIES OF
INTERACTING WITH THE INFORMATION AIMING AT ITS
APPROPRIATION
80
Comunicação Oral / Oral Communication
BORGES, Ellen Valotta Elias.
Unesp / Marília
LOGAN, Robert.
Universidade de Toronto / Canadá
Não há dúvida de que as novas mídias estão mudando as relações no
mundo. Nesse sentido, a pergunta que envolve esta pesquisa não é esta. O
questionamento que precisa ser feito é como as pessoas devem interagir com as
novas mídias para transformar essas relações de modo positivo. A maioria das
pessoas consegue acessar uma infinidade de informações na internet. Entretanto,
grande parte desta informação é manipulada pelos programas de televisão. A
partir dessas considerações, pode-se afirmar que a mídia de massa pode afetar
de modo negativo a construção da informação. Por um lado, a mídia pode ser
considerada uma força negativa se usada para influenciar comportamentos e
opiniões orientados para uma visão extremamente estreita e homogênea. Por
outro lado, as novas mídias possibilitam uma comunicação de duas vias que é
realizada por um processo de trocas de informações, fomentando um diálogo e
compartilhando conhecimento. Todos esses aspectos podem contribuir
grandemente para promover o desenvolvimento cognitivo com o intuito de
possibilitar interações mais reflexivas e menos manipuladas. O processo de
apropriação da informação é positivo quando o aprendizado é ativo e não
passivo, envolvendo a habilidade de leitura e a compreensão da informação
dentro de diferentes contextos. Em outras palavras, é preciso compreender a
informação dentro de sua complexidade: ela é um processo que depende de um
sujeito para sua construção. Nesse sentido, é preciso cada vez mais, desenvolver
ações para ajudar as comunidades a criar melhores condições de interação com
as novas mídias, assim como compreender o papel da informação nas relações
sociais. De outra forma, as novas mídias serão apenas mais um meio usado de
modo passivo. Compreender a apropriação é uma necessidade que se torna mais
evidente quando ela é relacionada à comunicação de duas vias, criando grandes
oportunidades de melhorar o processo de compreensão e interpretação. Essas
atitudes são práticas fundamentais e precisam ser desenvolvidas no contexto
atual da cibercultura. A popularização da internet criou uma nova geração de
produtores de informações que precisam constantemente entender a informação
para expressar suas próprias opiniões. Este tipo de prática não substitui as
interações presenciais, porém é outro meio que pode oferecer uma interatividade
pelo uso das novas mídias como mais uma possibilidade de comunicação de
duas vias.
81
There is no doubt that new media are changing the world relations. The
question here is not about how they are changing our world but how we can
interact with them to make these changes possible in a positive way. Most
people can access a broad range of information on internet; however, much of
the information is manipulated through television programs. In this way, we can
assume that mass media may negatively affect the construction of information.
The use of media is, on the one hand, a negative power when mass media are
used to influence behaviors and opinion within an extremely homogeneous way.
On the other hand, the new media allow a two-way communication by
delivering and receiving information, fomenting dialogue and sharing
knowledge. All these aspects may increasingly contribute to promote cognitive
development in order to allow interactions that are more reflective and less
manipulated. The process of appropriation of information is positive when
learning experience is active not passive, which involves ability to read and
understand information within different contexts. In other words, we must
understand information based on its complexity: it is a process that depends of a
subject to construct it. In this way, we need to continuously develop actions to
help the communities create better conditions for interacting online with new
media as well as understanding the role of information in social relations.
Otherwise, new media will be only one more medium used in a passive way.
Understanding appropriation becomes even more evident when it is related to
the use of two-way communication creating opportunities for significantly
improving the interpretation and understanding process. These initiatives are
vital and need to be developed within the context of cyberculture. The
popularization of internet has created a new generation of producers of
information who constantly need to understand information in order to express
their own judgment. This practice is not a substitute for interactions face to face,
but is another way that can provide interactivity by use of new media as one
more of two-way communication possibilities.
A BUSCA POR FERRAMENTAS DE CONTROLE
TERMINOLÓGICO NA ESFERA DA ARTE EM AMBIENTE
WEB: SUA VALIA PARA UNIDADES DE INFORMAÇÃO
THE SEARCH FOR TOOLS OF TERMINOLOGICAL
CONTROL IN THE SPHERE OF ART IN WEB ENVIRONMENT:
ITS VALUE FOR INFORMATION UNITS
Pôster / Poster
BRENTAN JUNIOR, Elisio Custodio.
UEL
82
ALBUQUERQUE, Ana Cristina de.
UEL
Torna-se até redundante, defender o papel da informação para o
desenvolvimento de toda e qualquer área do conhecimento, isso em decorrência
deste já ter se tornado um fato, algo óbvio e de conhecimento comum. Algumas
áreas, possuem uma espécie de “tronco” mais sólido do que outras, no que tange
a comunicação entre seus pares. Essa afirmativa, longe de almejar hierarquizar
uma ou outra área do conhecimento, possui a finalidade de ressaltar outro fato já
há muito tempo conhecido e demonstrado por pesquisas em comunicação
científica: a existência de particularidades existentes entre os domínios do
conhecimento. A própria divisão de áreas do Conselho Nacional de
Desenvolvimento Científico e Tecnológico respalda essa afirmativa, uma vez
que as áreas se agrupam de acordo com suas características de similaridade/ou
proximidade. Quando se discute preocupações com relação ao tratamento e as
posteriores recuperação e apropriação da informação por parte dos indivíduos
em Arte, não é diferente. Acredita-se que a Informação em Arte, por sua imensa
interface com a cultura, seja responsável por parcela representável do aspecto
social da Ciência da Informação. Partindo dessa premissa, a presente pesquisa
conta com o objetivo geral de compreender como são indexadas as pinturas por
unidades de informação em ambiente web, identificar os pontos de acesso
temáticos levados em consideração para a realização da indexação das pinturas e
buscar instrumentos terminológicos que possam potencializar a indexação de
pinturas em ambiente web, sejam esses instrumentos: taxonomias, tesauros ou
ontologias. O presente estudo possui caráter básico, ou seja, analisando
iniciativas que estejam ocorrendo atualmente no universo das unidades de
informação. A abordagem selecionada fora a qualitativa, uma vez que
quantificar os resultados obtidos pelo estudo, não seria plenamente satisfatório.
Optou-se pelo objetivo descritivo, uma vez que conhecer iniciativas dessa
natureza demonstra ser de grande valia para as unidades de informação, assim
também como seu acesso rápido e facilitado. O delineamento bibliográfico se
deu, pela necessidade de varredura da literatura a respeito do tema, bem como o
documental que será responsável pelos instrumentos encontrados pela pesquisa.
No que tange aos instrumentos de controle terminológico, o destaque diz
respeito ao tesauro do The Getty Institute, que por sua vez, conta com uma
ampla gama de termos do campo da Arte. Outras plataformas que podem
contribuir bastante com o profissional da informação que atue nesta área e
configuram-se como referência na temática, são os portais do Google Arts &
Culture em nível internacional e nacionalmente a Enciclopédia Itaú Cultural,
83
dentre outros instrumentos de elaboração própria das instituições promotoras do
universo da Arte no Brasil.
It is even redundant to defend the role of information for the
development of any and all areas of knowledge, as this has already become a
fact, something obvious and common knowledge. Some areas have a more solid
"trunk" than others, as far as communication between peers is concerned. This
assertion, far from aiming at hierarchizing one or another area of knowledge,
has the purpose of highlighting another fact that has long been known and
demonstrated by research in scientific communication: the existence of
particularities between the domains of knowledge. The area division itself of the
National Council for Scientific and Technological Development supports this
statement, since the areas are grouped according to their characteristics of
similarity / proximity. When discussing concerns about treatment and
subsequent retrieval and appropriation of information by individuals in Art, it is
no different. It is believed that Information in Art, because of its immense
interface with culture, is responsible for a representative part of the social aspect
of Information Science. Based on this premise, the present research has the
general objective of understanding how paintings are indexed by information
units in a web environment, identify the thematic access points taken into
account for the indexing of paintings and search for terminological tools that
can enhance the indexing of paintings in the web environment, be these
instruments: taxonomies, thesauri or ontologies. The present study has a basic
character, that is, analyzing initiatives that are currently occurring in the
universe of information units. The approach selected was qualitative, since
quantifying the results obtained by the study would not be fully satisfactory. The
descriptive objective was chosen, since knowing initiatives of this nature proves
to be of great value to the units of information, as well as their quick and easy
access. The bibliographic delineation was due to the necessity of scanning the
literature on the subject, as well as the documentary that will be responsible for
the instruments found by the research. With regard to terminological control
instruments, the emphasis is on the thesis of The Getty Institute, which in turn
has a wide range of terms in the field of Art. Other platforms that can contribute
a lot with the professional of the information that acts in this area and are set as
reference in the subject, are the portals of Google Arts & Culture in
internationally and nationally the Enciclopédia Itaú Cultural, among other
instruments of own elaboration of the institutions promoters of the Art universe
in Brazil.
ANÁLISE DA ARQUITETURA DA INFORMAÇÃO COM
ENFOQUE SEMIÓTICO NO GUIA GAY SÃO PAULO
ANALYSIS OF INFORMATION ARCHITECTURE WITH
SEMIOTIC APPROACH IN THE GAY GUIDE SÃO PAULO
84
Pôster / Poster
BRITO, Jean Fernandes.
UFSC
AFONSO, Raffaela Dayane.
UFSC
MATIAS, Marcio.
UFSC
As atuais Tecnologias de Informação e Comunicação propiciam o
desenvolvimento de ambientes informacionais digitais que contemplam
entretenimento, informações turísticas e entre outros. Neste sentido, destacamos
os websites de turismo para as Lésbicas, Gays, Bissexuais, Transexuais,
Travestis e Queer (LGBTQ) que são ambientes criados para disponibilizar
dados e informações turísticas para esse público. Esses websites apresentam
riqueza de vocabulários e rótulos específicos a essa comunidade, assim
necessitam ser representados e estruturados para facilitar a Recuperação da
Informação. Portanto o objetivo geral dessa pesquisa é analisar a Arquitetura da
Informação com enfoque no sistema de rotulagem e abordagens da semiótica no
website Guia Gay São Paulo. A metodologia desta pesquisa se caracterizou
como exploratória e analítica, com abordagem qualitativa. A coleta de dados foi
realizada por meio de observação não-participante.A partir dos dados obtidos,
foram identificados os elementos que compõe os sistemas da Arquitetura da
Informação, verificou-se a existência dos seguintes elementos: esquemas exatos
alfabéticos, cronológicos e geográficos; esquemas ambíguos, distribuídos por
tópicos e direcionados a públicos específicos, pertencentes ao sistema de
organização; elementos de navegação global e contextual; navegação por links
contextuais no sistema de navegação, no sistema de rotulagem foram
identificados o uso dos cabeçalhos, rótulos e termos de indexação; o sistema de
busca está localizado na homepage do website, os seus resultados são
apresentando em listagem cronológica. Em relação a análise das abordagens
semióticas (sonoras e imagéticas) percebeu-se que a intenção do website é
resgatar informações do dia a dia do mundo LGBTQ, de modo a informar à
sociedade, em seus diferentes gêneros e idades, a importância dessa comunidade
no desenvolvimento político, econômico e social, bem como a necessidade de
inclusão desse público nas dinâmicas sociais. Além disso, observou-se o
crescimento do acesso ao website por públicos diferenciados, o que corrobora
para a inserção da comunidade LGBTQ nas atividades do seu cotidiano
mostrando as dimensões abrangentes que esse público atingiu nos últimos anos.
85
Current Information and Communication Technologies provide the
development of digital information environments that include entertainment,
tourist information and so on. In this sense, we highlight the tourism websites
for Lesbian, Gay, Bisexual, Transsexual, Transvestite and Queer (LGBTQ) that
are created environments to provide data and tourist information for this public.
These websites feature rich vocabularies and labels specific to that community,
so they need to be represented and structured to facilitate Information Retrieval.
Therefore the general objective of this research is to analyze the Information
Architecture with focus on the labeling system and approaches of semiotics in
the Gay Guide São Paulo website. The methodology of this research was
characterized as exploratory and analytical, with a qualitative approach. Data
collection was performed through non-participant observation. From the data
obtained, the elements that compose the Information Architecture systems were
identified, the following elements were verified: exact alphabetical,
chronological and geographical schemes; ambiguous schemes, distributed by
topic and directed to specific audiences, belonging to the system of
organization; global and contextual navigation elements; navigation through
contextual links in the navigation system, the labeling system identified the use
of headings, labels and indexing terms; the search engine is located on the
homepage of the website, its results are presented in chronological listing.
Regarding the analysis of the semiotic (sound and imagery) approaches, it was
noticed that the intention of the website is to retrieve the daily information of
the LGBTQ world, in order to inform the society, in its different genres and
ages, of the importance of this community in the political, economic and social
development, as well as the need to include this public in social dynamics. In
addition, the growth of access to the website by differentiated publics was
observed, which corroborates for the LGBTQ community's insertion in the
activities of its daily life, showing the wide dimensions that this public has
reached in recent years.
ARQUITETURA DA INFORMAÇÃO E SEMIÓTICA:
CONTRIBUIÇÕES CONCEITUAIS
INFORMATION ARCHITECTURE AND SEMIOTICS:
CONCEPTUAL CONTRIBUTIONS
Pôster / Poster
BRITO, Jean Fernandes.
UFSC
AFONSO, Raffaela Dayane.
86
UFSC
MATIAS, Marcio.
UFSC
A Web, sendo um sistema de organização universal da informação,
torna possível o armazenamento e disponibilização de documentos em variados
formatos. Nesse imenso emaranhado de informações, encontram-se ambientes
informacionais utilizados às diferentes funções, por exemplo: ambientes
informativos onde a informação é passiva e os colaborativos que permitem aos
usuários construir conteúdo. Paralelamente às facilidades apresentadas pela
Web, percebe-se que os usuários enfrentam dificuldades para encontrar uma
informação e tal problema pode ser amenizado quando os ambientes estão bem
estruturados. Nesse contexto, surgem estudos para que seja proporcionado aos
usuários o acesso e a recuperação das informações de forma eficaz e eficiente;
sendo assim, a Arquitetura da Informação vem contribuindo no
desenvolvimento de websites. Já, a Semiótica proporciona o estudo dos signos e
símbolos e todas as suas relações e operações sígnicas. Assim, o objetivo neste
ensaio é fazer uma aproximação conceitual entre Arquitetura da Informação e
semiótica. Diante disto, é necessário retomarmos alguns conceitos sobre a
Arquitetura da Informação e seus sistemas, posteriormente, à definição da
semiótica de Peirce e, finalmente, apresentar quais as influências entre essas
duas áreas. A Arquitetura da Informação pode ser entendida como uma planta,
um mapa ou projeto estrutural de um ambiente digital, seja ele um software,
uma biblioteca digital ou um website. A Arquitetura da Informação também é
definida como uma disciplina do design que visa tornar a informação mais
acessível e compreensível pelos usuários. Para que isso seja possível, a
Arquitetura da Informação é composta por quatro sistemas independentes:
sistema de organização, de rotulagem, de navegação, de busca e representação.
Esses sistemas, empregados na sua totalidade em um ambiente digital,
proporcionam ao usuário maior facilidade de navegação e localização da
informação. Apesar de existirem outras abordagens da Semiótica, ajuizamos a
utilização da definição empregada por Santaella, que se fundamenta na
perspectiva perciana. Assim, a semiótica é a ciência dos signos e dos processos
significativos (semiose) na natureza e na cultura. Esse processo de significação
é importante aspecto da Ciência da Informação no que diz respeito à
organização do conhecimento, uma vez que a Ciência da Informação desenvolve
métodos para interpretar diferentes constituições no processo de recuperação e
uso da informação em ambientes informacionais digitais. Sob essa perspectiva,
a Arquitetura da Informação se aproxima e se relaciona com a semiótica no
tocante ao sistema de rotulagem, que consiste na atribuição de nomes, imagens,
87
dando a eles significantes e significados. Infere-se que a Semiótica contribui,
teoricamente e metodologicamente, com a Arquitetura da Informação no
processo de recuperação da informação em ambientes digitais por meio dos
rótulos, quais sejam: textuais e ou imagéticos.
The Web, is a system of universal information organization, makes it
possible to store and make available documents in various formats. In this
immense tangle of information, there are informational environments used for
different functions, for example: informational environments where information
is passive and the collaborative ones that allow users to build content. Parallel to
the facilities presented by the Web, it is noticed that the users face difficulties to
find information and such problem can be softened when the environments are
well structured. In this context, studies are emerging to provide users with
access to and retrieval of information in an effective and efficient manner; thus,
Information Architecture has been contributing in the development of websites.
Already, Semiotics provides the study of signs and symbols and all their
relations and sign operations. Thus, the objective in this essay is to make a
conceptual approximation between Information Architecture and semiotics. In
view of this, it is necessary to return some concepts about Information
Architecture and its systems, later, to the definition of Peirce's semiotics and,
finally, to present the influences between these two areas. Information
Architecture can be understood as a plan, a map or structural design of a digital
environment, be it a software, a digital library or a website. Information
Architecture is also defined as a design discipline that aims to make information
more accessible and understandable by users. For this to be possible,
Information Architecture is composed of four independent systems: system of
organization, labeling, navigation, search and representation. These systems,
employed in their entirety in a digital environment, provide the user with greater
ease of navigation and location of information. Although there are other
approaches to semiotics, we argue the use of the definition employed by
Santaella, which is based on the perceived perspective. Thus, semiotics is the
science of signs and meaningful processes (semiosis) in nature and culture. This
process of signification is an important aspect of Information Science with
regard to the organization of knowledge, since Information Science develops
methods to interpret different constitutions in the process of retrieval and use of
information in digital information environments. This perspective, Information
Architecture approaches and relates to the semiotics of the labeling system,
which consists in the attribution of names, images, giving them signifiers and
meanings. It is inferred that Semiotics contributes, theoretically and
methodologically, to the Information Architecture in the process of retrieving
information in digital environments through the labels, which are: textual and or
imagery.
88
PRODUÇÃO CIENTÍFICA SOBRE O TREINAMENTO
DESPORTIVO DO TAEKWONDO NAS BASES DE DADOS
SCOPUS
SCIENTIFIC PRODUCTION ON TAEKWONDO SPORTS
TRAINING ON SCOPUS DATABASES
Pôster / Poster
BUENO, Camilo Monteiro.
FAIP
O Taekwondo nos dias atuais é considerado um esporte, cuja sua
filosofia marcial vem de origem coreana, tornou-se modalidade olímpica oficial
nos Jogos de Sydney em 2000, seu rendimento sobre os atletas é decorrente de
um conjunto de técnicas, táticas e fatores psicológicos, cujas ações em
competições são caracterizadas por curtos períodos, de alta intensidade exigindo
uma alta reação de golpes precisos. Sabe-se que, dependendo do tipo de
demandas energética deste esporte, inclui a contribuição relevante tanto do
trabalho aeróbio quanto do trabalho anaeróbio e a potência anaeróbica entra
como fator principal para o sucesso na luta. As lutas de taekwondo estão
estruturadas em três rounds de 2 minutos com um 1 min intervalo. Assim, os
atletas realizam repetidamente breves períodos de golpes intensos, como ataques
e contra-ataques (1 a 5 segundos) alternados com períodos de baixa e alta
intensidade. A busca pelo alto rendimento nos atletas, vem tornando o esporte
cada vez mais dinâmico ao ponto de estudar não só a parte prática de técnicas,
mas também a compreensão de toda a teoria do treinamento desportivo que
envolve os praticantes de taekwondo. Com isso, buscamos neste trabalho uma
sequência metodológica de estudos voltados para o treinamento desportivo no
taekwondo, com a finalidade de colaborar com os técnicos esportivos e também
preparadores físicos a experiência de estudos encontrados nas bases de dados,
compreendendo o ritmo de treino que o atleta e/ou treinador adotam para sua
equipe, e assim, buscando na literatura científica conhecimentos adequados para
sua prática no ensino dos treinamentos, o trabalho traz uma sequência
metodológica de estudos voltados para o treinamento desportivo no Taekwondo,
com a finalidade de colaborar com os técnicos esportivos e também
preparadores físicos a experiência de estudos encontrados nas bases de dados,
observando na literatura científica demais conhecimentos adequados para sua
prática no ensino dos treinamentos.O presente trabalho de pesquisa, analisa e
sistematiza a existência de publicações científicas sobre o Taekwondo e
Treinamento desportivo indexadas nas principais bases de dados cientificas
89
internacionais com o intuito de contribuir a visibilidade e uso dessas
publicações. Os objetivos desta pesquisa incluim coletar um maior número de
informações e apresentar de forma sistemática análises de pesquisa indexadas
pelas bases de dados da Scopus.
Today's Taekwondo is considered a sport whose martial philosophy
comes from Korean origin, became official Olympic modality at the Sydney
Games in 2000, its performance on athletes is due to a set of techniques, tactics
and psychological factors, whose actions in competitions are characterized by
short periods, of high intensity demanding a high reaction of precise blows. It is
known that, depending on the type of energetic demands of this sport, it includes
the relevant contribution of both aerobic work and anaerobic work, and
anaerobic power enters as the main factor for success in the fight. The
taekwondo fights are structured in three rounds of 2 minutes with a 1 minute
interval. Thus, athletes repeatedly perform brief periods of intense strokes, such
as attacks and counterattacks (1 to 5 seconds) alternating with periods of low
and high intensity. The pursuit of high performance in athletes has made the
sport increasingly dynamic to the point of studying not only the practical part of
techniques but also the understanding of the whole theory of sports training
involving taekwondo practitioners. In this work, we seek a methodological
sequence of studies aimed at sports training in taekwondo, with the purpose of
collaborating with sports coaches and also physical trainers the experience of
studies found in the databases, including the training rhythm that the athlete and
/ or trainer adopt to their team, and thus, seeking in the scientific literature
adequate knowledge for their practice in teaching the trainings, the work brings
a methodological sequence of studies aimed at sports training in Taekwondo, in
order to collaborate with technicians athletes and also physical trainers the
experience of studies found in the data bases, observing in the scientific
literature too adequate knowledge for their practice in the teaching of the
trainings. The present work of research, analyzes and systematizes the existence
of scientific publications on Taekwondo and Sports Training indexed in p
scientific databases with the aim of contributing to the visibility and use of these
publications. The objectives of this research include collecting more information
and systematically presenting research analyzes indexed by the Scopus
databases.
COMUNICAÇÃO NA ESFERA PÚBLICA VIRTUAL
BRASILEIRA: AS CONSEQUÊNCIAS PRÁTICAS DA ADOÇÃO
DO USO DE BIG-DATA PARA AS PESQUISAS DE OPINIÃO
PÚBLICA POLÍTICA NO BRASIL
90
COMMUNICATION IN THE BRAZILIAN PUBLIC SPHERE:
THE PRACTICAL CONSEQUENCES OF THE ADOPTION OF
BIG-DATA USES TO THE PUBLIC OPINION RESEARCHES IN
BRAZIL
Pôster / Poster
CALDAS, Pedro Neris Luiz.
USP
Dado o desenvolvimento histórico do conceito de esfera pública e de
seu aspecto virtual na sociedade contemporânea, assim como de suas
características materiais, este projeto visa refletir sobre as consequências
pragmáticas da adoção do uso de big-data e meios de visualização de dados
enquanto métodos de estudo da opinião pública política. O alicerce teórico do
trabalho será construído a partir da concepção de esfera pública proposta por
Jürgen Habermas, caracterizada pela burguesia pós revolução industrial e pela
transformação pós midiatização do corpo social no século XX, chegando até seu
recente aspecto virtual. Uma vez que o atual momento consolida uma nova face
da esfera pública que é de natureza online, cria-se não só a oportunidade da
aplicação de novos métodos para compreender a opinião pública dentro desta
esfera, mas surge também uma demanda por isso. Quais seriam, então, as
consequências práticas fundamentais que emergem da adoção do uso de big-
data nos estudos de opinião pública desta nova conjectura? Sob o olhar das
teorias pragmáticas clássicas, estas consequências são positivas? Visando
responder a estes questionamentos, o presente projeto propõe um estudo de
casos comparativo a fim de destacar e sistematizar as principais diferenças entre
pesquisas brasileiras de opinião pública política que prescindiram do uso de big-
data e aquelas que fizeram o uso destes, avaliando-as, então, sob o prisma do
pragmatismo clássico americano, especialmente através da obra de Charles
Sanders Peirce. A principal hipótese que balizará o processo de produção deste
trabalho é a de que, sob um olhar do pragmatismo clássico, não é possível
assumir que a adoção do uso de big-data, neste contexto, constitua um
progresso imediatamente dado. Esta hipótese é baseada na conduta de
divulgação pouco transparente dos algoritmos utilizados na coleta dos dados e
na elaboração dos meios de visualização e análises destes mesmos dados.
Espera-se, com a realização deste estudo, que a compreensão acerca da esfera
pública brasileira e sua variante virtual sejam enriquecidas, bem como a
ampliação das possibilidades de pesquisa referentes a este tema.
Given the historical development of the concept of public sphere and
its virtual aspect in the contemporary society, as well as its material
91
characteristics, this project aims to reflect about the pragmatic consequences
produced by the adoption of big-data and data visualization as methods to study
the political public opinion. This work’s theoretical basis will be build up on
Jürgen Habermas’ concept of public sphere, which is characterized by the post-
industrial revolution bourgeoisie and by the transformation occurred within the
society after its mediatization during the XX century, until it comes to its recent
virtual aspect. Since the present moment consolidates a new face of the public
sphere, which is online, not only opportunities to apply new methods to study
the public opinion are created, but the demands for it also rise. What would it
be, therefore, the fundamental practical consequences that emerges with the
adoption of big-data uses in public opinion studies at this new conjecture? From
the view of the classical pragmatics theories, are these consequences positive?
Aiming to answer these questions, the present project proposes a comparative
case study in order to identify and arrange the main distinctions between
Brazilians political public opinion researches that have not used big-data during
its executions, and the ones that have used, and, after that, analyzing them from
the view of the classical American pragmatism, especially through Charles
Sanders Peirce’s theory. The main hypothesis, which will guide this work’s
production, is that, from the view of the classical pragmatism, it is not possible
to assume that the adoption the big-data, in this context, constitutes an
immediately given progress. This hypothesis is based on the low transparency
politics of diffusion when it comes to the algorithms that are used during the
data collect phase and on the elaboration of the data visualization methods and
its analyses. It is expected that, with the execution of this study, the
comprehension about the Brazilian public sphere and its virtual variant be
enriched, as well as the possibilities of research lined to this theme.
REGIME DE INFORMAÇÃO E ANALISE DO DISCURSO:
APROXIMAÇÕES TEÓRICAS E CONCEITUAIS
INFORMATION SCHEME AND DISCOURSE ANALYSIS:
THEORY AND CONCEPTUAL APPROACHES
Pôster / Poster
CAPRIOLI, Mariana Silva.
Unesp / Marília
LIMA, Larissa Mello.
Unesp / Marília
92
MORAES, João Batista Ernesto.
Unesp / Marília
Bernd Frohmann propôs, inicialmente, o conceito de Regime de
Informação em 1984, explicando que se trata de uma genealogia das políticas
informacionais, ou seja, surgindo como uma alternativa aos estudos de política
de informação e, também, como crítica ao reducionismo das abordagens da
política, praticadas na Ciência da Informação e da Biblioteconomia. É
importante observar que diferentes autores se utilizam do termo Regime de
Informação para conceituar suas diferentes formas de observar, mas,
principalmente, para abordar as relações entre política, informação e poder,
porém aqui se trabalha com alguns pesquisadores, sendo possível citar alguns
como o próprio Frohmann (1995), González de Gómez (1999, 2012a, 2012b) e
Braman (2004). Alguns outros seguem caminhos diferentes, aplicando os
conceitos em outros espaços de informação. O Regime de Informação tem
conceitos muito proóximos das noções de poder propostas por Foucault (1979;
2000), onde discute o conceito de “Regime de Poder”, referente às formas de
estruturação política das ciências que tem como objetivo a regulamentação das
linguagens e os enunciados científicos, considerando obras no espaço
heterológico dos saberes. O autor é muito trabalhado pelos autores em
desenvolvimento de pesquisas ligadas a metodologia de Análise do Discurso de
matriz francesa, por tal motivo a aproximação dos temas e interesse de trabalho.
Como objetivo, se propõe a traçar um paralelo entre as Formações Discursivas e
Formações Ideológicas com o regime de informação, e se torna importante, pois
mostrou algumas observações interessantes referentes ao profissional atuante e
membro de uma unidade de informação, no momento de representar obras,
também quanto o autor enquanto pessoa, inserido na sociedade e com ideais e
vivencias próprias, evidenciando discursos no momento de escrever seus textos.
As Formações Discursivas e Ideológicas são conceitos muito presentes na
Análise do Discurso, sendo a Formação Discursiva construída pela relação de
sentido entre as posições ideológicas, inseridas em um processo sócio-histórico
em que os sentidos e as palavras são produzidas. Com a Formação Discursiva
pode-se perceber que as palavras não têm sentido nelas mesmas, mas sim
derivam o sentido do meio em que se inserem, estando diretamente relacionada
com a Formação Ideológica, pois se representam por meio desta última. Nas
conclusões do trabalho, foi possível observar dois contextos para que se pudesse
comparar as noções propostas, o primeiro mostrando que Formação Discursiva e
Formação Ideológica possuem uma relação com Regime de Informação por
tratar do autor inserido na sociedade, com vivencias e com um discurso
condicionado, atrelado a suas ideologias e discursos, já o segundo mostrando o
discurso do autor, encontrado nos livros que compõem o acervo de uma unidade
93
de informação, seguindo suas regras de representação ou ainda o profissional
que representa o item na unidade, que também é controlado por tais regras,
evidenciando o Regime de Informação.
Bernd Frohmann initially proposed the concept of Information Regime
in 1984, explaining that it is a genealogy of information policies, that is,
appearing as an alternative to studies of information policy and also as a critique
of the reductionism of approaches to information. policy, practiced in
Information Science and Librarianship. It is important to note that different
authors use the term Information Regime to conceptualize their different ways
of observing, but mainly, to approach the relations between politics, information
and power, but here we work with some researchers, being possible to mention
some as the Frohmann (1995), González de Gómez (1999, 2012a, 2012b) and
Braman (2004). Some others follow different paths, applying the concepts in
other information spaces. The Information Regime has very close concepts of
the notions of power proposed by Foucault (1979, 2000), where he discusses the
concept of "Regime de Poder", referring to the forms of political structuring of
the sciences whose objective is the regulation of languages and scientific
statements, considering works in the heterological space of knowledge. The
author is very well worked by the authors in development of research linked to
the methodology of Discourse Analysis of French matrix, for that reason the
approach of themes and work interest. As an objective, it is proposed to draw a
parallel between the Discursive Formations and Ideological Formations with the
information regime, and it becomes important, since it showed some interesting
observations regarding the acting professional and member of an information
unit, at the time of representing works, as well as the author as a person, inserted
in society and with his own ideals and experiences, evidencing speeches at the
moment of writing his texts. The Discursive and Ideological Formations are
very present concepts in Discourse Analysis, the Discursive Formation being
constructed by the relation of sense between the ideological positions, inserted
in a socio-historical process in which the senses and the words are produced.
With Discursive Formation one can perceive that words have no meaning in
themselves, but rather derive the meaning of the environment in which they are
inserted, being directly related to the Ideological Formation, since they are
represented through the latter. In the conclusions of the study, it was possible to
observe two contexts in order to compare the proposed notions, the first one
showing that Discursive Formation and Ideological Formation have a relation
with Information Regime because it deals with the author inserted in the society,
with experiences and with a conditioned discourse , linked to their ideologies
and discourses, and the second showing the author's discourse, found in the
books that compose the collection of an information unit, following its rules of
representation or even the professional that represents the item in the unit, which
is also controlled by such rules, evidencing the Information Regime.
94
BIG DATA E O FUTURO PARA PRESERVAR
BIG DATA AND THE FUTURE TO PRESERVE
Pôster / Poster
CASTRO, Jetur Lima de.
UFPA
Os dados digitais, as variáveis tecnológicas e a velocidade da
informação, contribuem para a disponibilização do conhecimento e aumentam
exponencialmente a complexidade de informações que as instituições precisam
organizar (KING et al, 2012). Em certa medida, isso além de potencializar a já
existente explosão informacional, tem causado um efeito multiplicador no
volume de documentos científicos disponíveis em meios digitais. Esse
fenômeno, embora represente um movimento vertical, dinâmico e indutor da
Ciência e Tecnologia, dirige-nos, certas preocupações éticas nas questões dos
meios de proteção e custódia dos dados e conteúdos digitais, bem como pela
instabilidade da variedade de suportes e formas de armazenamento da
informação. Desta maneira, a partir do estudo exploratório com base na revisão
bibliográfica, o presente resumo vem refletir sobre a importância de elementos e
atributos importantes para Big Data, como a experiência da autenticação e
certificação digital para a preservação digital de dados, que sob nosso olhar,
tonar-se-iam instrumentos de aplicação, para serem usados no sentido de
proteger a integridade e fomentar a autenticidade dos grandes volumes de dados
das coleções digitais das organizações. Isto posto, esses fatores geram perguntas
sobre implantação de políticas de preservação, autenticidade, segurança dos
dados e os critérios nas coleções digitais das instituições científicas e de
memória, muitas das quais já estão na faixa dos petabytes, estão crescendo
exponencialmente (DAVIS; PATTERSON, 2012). O que torna instável a ação
das tecnologias de armazenamento, antes, surgindo a preocupação de que estas,
precisam ser suficientes para dar qualidade e integridade ao grande volume de
dados nas instituições. Tangente à temática, a Rede Cariniana – IBICT surge da
necessidade de implantar um serviço de preservação digital de documentos
eletrônicos brasileiros com o objetivo de garantir um acesso continuado do
grande volume de dados das instituições públicas para preservar em longo prazo
os conteúdos armazenados de forma digital. Sendo assim, a imensa quantidade
de informação científica exposta no mundo atual exige a precisão de atuar neste
sentido (INSTITUTO BRASILEIRO DE INFORMAÇÃO EM CIÊNCIA E
TECNOLOGIA, 2012). Com efeito, os serviços de preservação digital de dados
atentam-se para os seguintes aspectos: a) A informação estará disponível daqui a
cem anos?; b) Além da informação disponível, ela será acessível?; c). Se for
95
acessível, ela será confiável?; d). Ainda que confiável, a informação preservada
será autêntica? Com efeito, a confiabilidade perpassa aos documentos maior
qualidade de certificação e mensuração de qualidade dos dados digitais.
Segundo Gico Júnior (2000), a autenticidade do documento depende
diretamente do grau de confiabilidade desejável no momento de extrair a
informação. Conforme Sales e Sayão (2012), as ações de preservação têm o
dever de assegurar a permanência do documento como autêntico, confiável e
capaz de ser utilizado enquanto mantém a sua integridade. O acesso aos dados
preservados pode ser requisitado cotidianamente pela sua comunidade alvo.
Portanto, a necessidade de preservar com confiabilidade e segurança se torna
imprescindível, como todo, e conforme Márdero Arellano e Araújo (2017), o
fenômeno de Big Data e gestão dos dados de pesquisa expõem fatos que afetam
o desenvolvimento da ciência e seus efeitos na sociedade atual, essas
preocupações em guardar o documento digital, devem valer de forma atenuante
para a questão da autenticidade, uma vez que, o Big Data refere-se a grande
volume de dados e ao conjunto de soluções tecnológicas para tratar esses dados
digitais. A certificação digital pode torna-se efetiva na solução para o grande
emaranhado de dados digitais.
Digital data, technological variables and information speed contribute
to the availability of knowledge and exponentially increase the complexity of
information that institutions need to organize (KING et al, 2012). To a certain
extent, this in addition to potentializing the already existing informational
explosion, has caused a multiplier effect on the volume of scientific documents
available in digital media. This phenomenon, although it represents a vertical,
dynamic movement and inducer of Science and Technology, directs us, certain
ethical concerns on the issues of the protective clothing and safekeeping of data
and digital content as well as the instability of the variety of media and forms of
storage of information. In this way, from the exploratory study based on
literature review, this abstract is to reflect on the importance of important
elements and attributes for Big Data, as the experience of authentication and
digital certificates for digital preservation of data, which in our eyes, would be
application tools to be used to protect the integrity and to foster the authenticity
of the large data volumes of the organizations' digital collections. That said,
these factors generate questions about implementation of conservation policies,
authenticity, data security and the criteria in the digital collections of scientific
institutions and memory, many of which are already in the range of petabytes,
they are growing exponentially (DAVIS; PATTERSON, 2012). This makes the
storage technologies unstable, but rather the concern that they must be sufficient
to give quality and integrity to the large volume of data in the institutions.
Tangent to the theme, Cariniana Network - IBICT arises from the need to
deploy a service of digital preservation of Brazilian electronic documents in
order to ensure continued access to the large volume of data from public
96
institutions to preserve in the long term the content stored in digital form.
Therefore, the immense amount of scientific information exposed in the world
today requires the precision of acting in this sense (INSTITUTO BRASILEIRO
DE INFORMAÇÃO EM CIÊNCIA E TECNOLOGIA, 2012).
In fact, digital data preservation services are concerned with the following
aspects: a) Is the information available 100 years from now?; b) In addition to
the information available, will it be accessible?; w). If it is accessible, will it be
reliable?; d). Although reliable, will the information preserved be authentic? In
fact, reliability implies a higher quality of certification and measurement of
digital data quality. According to Gico Júnior (2000), the authenticity of the
document depends directly on the degree of reliability desirable at the moment
of extracting the information. According to Sales and Sayão (2012),
preservation actions have the duty to ensure the permanence of the document as
authentic, reliable and capable of being used while maintaining its integrity.
Access to preserved data can be requested daily by your target community.
Therefore, the need to preserve with reliability and safety becomes essential, as
is the case, and according to Márdero Arellano and Araújo (2017), the Big Data
phenomenon and the management of research data expose facts that affect the
development of science and its effects on society, these concerns about keeping
the digital document, should mitigate the issue of authenticity, since Big Data
refers to the large volume of data and the set of technological solutions to
handle such digital data. Digital certification can become effective in solving the
great tangle of digital data.
A LIMITAÇÃO CRESCENTE DA AUTONOMIA
THE GROWING LIMITATION OF AUTONOMY
Comunicação Oral / Oral Communication
COELHO, Bruno.
Unesp / Marília
A autonomia é um conceito central ao considerarmos as implicações do
progresso tecnológico. Neste trabalho iremos avaliar o conceito de autonomia a
partir de dois aspectos: epistêmico e ético. No plano epistêmico, iremos
considerar a propagação crescente de informações falsas no ambiente virtual.
Pode-se perceber que o aumento significativo na produção, armazenamento e
propagação de dados online gerou novos tipos de relação entre os agentes, e
além disso, gerou novos problemas. Um destes problemas é o aumento na
produção de notícias inverídicas. Iremos focar na produção e propagação de
informações falsas feita não apenas por indivíduos, mas principalmente por
97
instituições públicas e privadas. Este comportamento revela uma
desconsideração séria por valores como verdade e objetividade. Estes valores
são fundamentais para o bom funcionamento de uma sociedade, são os pilares
da pesquisa científica, do debate público de ideias, e da avaliação críticas das
nossas melhores teorias. A defesa destes valores, nos parece, é essencial ao
avaliar a propagação de informações falsas e suas implicações. Após avaliar o
aspecto epistêmico, iremos na segunda parte considerar o aspecto ético. Vamos
sustentar que a limitação da autonomia ocorre quando violações graves de
privacidade se tornam recorrentes. Neste segundo exemplo, iremos destacar
casos de violações de privacidade ocorridas em tempos recentes, em especial, a
invasão intencional de sistemas computacionais com o intuito de divulgar e
vender dados pessoais. A venda de dados pessoais e a invasão de privacidade
têm gerado problemas de ordem globais e regionais, e assim como a propagação
de informações falsas, restringem a autonomia dos indivíduos, tornando-os
vulneráveis a umas variedades de crimes, e em alguns casos, causando danos
irreparáveis. Após considerar ambos os aspectos epistêmico e ético, vamos
discutir na parte final os possíveis cursos de ação que podem ser tomados frente
ao controle crescente de empresas e agências governamentais sobre os
indivíduos.
Autonomy is a central concept when we consider the implications of
technological progress. In this paper we evaluate the concept of autonomy in
two aspects: epistemic and ethical. At the epistemic level, we will consider in
the first part the growing propagation of false information in the virtual
environment. We can perceive that the significant increase in the production,
storage and propagation of online data has generated new types of relations
between agents, and in addition, has generated new problems. One of these
problems is the production of fake news. We will be focusing on the production
and propagation of false information done not only by individuals, but mainly
by public and private institutions. This behavior reveals a serious disregard for
values such as truth and objectivity. These values are fundamental for the proper
functioning of a society, are the pillars of scientific research, the public debate
of ideas, and the critical evaluation of our best theories. The defense of these
values, it seems to us, is essential in assessing the spread of false information
and its implications. After evaluating the epistemic aspect, we will consider the
ethical aspect in the second part. We argue that the limitation of autonomy
occurs when serious breaches of privacy become recurrent. In this second
example, we will give some cases of the numerous privacy violations that have
occurred in recent times, especially, the intentional invasion of computer
systems in order to disclose and sell personal data. The selling of personal data
and the invasion of privacy has generated global and regional problems, as well
as the propagation of false information, restricting individuals' autonomy,
making them vulnerable to a variety of crimes, and in some cases, causing
98
irreparable damage. After considering both epistemic and ethical aspects, we
will discuss in the final part the possible courses of action that can be taken in
the face of growing control of corporations and governmental agencies over
individuals.
RECUPERAÇÃO DE DADOS EM SISTEMA ELETRÔNICO E
POSTERIOR ACESSO ABERTO: UM ESTUDO VIA
PROTOTIPAÇÃO COM MICROCONTROLADOR ARDUINO
DATA RECOVERY IN A ELECTRONIC SYSTEM AND OPEN
ACCESS IN A LATER STEP: A STUDY BY PROTOTYPING
WITH ARDUINO
Pôster / Poster
COSTA, André Luiz Rodrigues.
IFSP
RODAS, Cecilio Merlott.
IFSP
Este trabalho apresenta uma pesquisa de iniciação científica cujo
objetivo é a investigação dos processos de gerenciamento e recuperação de
dados em um sistema eletrônico com acesso à Internet. Considerando a
importância da informação na tomada de decisões, o projeto une as áreas de
Engenharia Elétrica, Ciência da Computação e Ciência da Informação com o
intuído de elaborar uma pesquisa que investigue o funcionamento de
equipamentos de captura de informação de sistemas elétricos/eletrônicos, assim
como o desenvolvimento de uma base de dados para armazenamento dos dados
recuperados, possibilitando a criação de um protótipo de ambiente que permita o
compartilhando de informações para futuras tomadas de decisões. Nesse
sentido, o projeto justifica-se devido à relevância das informações geradas pelos
sistemas eletroeletrônicos para a formação de grandes bases dados, como o Big
Data. Informação é a reunião ou o conjunto de dados e conhecimentos
organizados, que possibilitam a constituição de referências sobre determinado
acontecimento, fato ou fenômeno, também permite a resolução de problemas e
tomadas de decisões, com base no uso racional deste conhecimento adquirido
através dela. As pessoas e as organizações necessitam de informações para a
tomada de decisão, desde os aspectos mais simples da vida como se locomover,
comprar alimentos, até os mais complexos. Tomando estes princípios como
ponto de partida, pretende-se o desenvolvimento de um protótipo para controle
99
de uma linha de produção por meio do microprocessador Arduino, com o
objetivo de torná-la automatizada, criando condições para a recuperação e
compartilhamento de dados (informações) gerados por meio de sensores. A
utilização do Arduino nos procedimentos de prototipação permite o
gerenciamento desejado e ainda possibilita que o controle dos processos
aconteça de uma forma eficiente e com um menor custo financeiro. A forma
como os dados são apresentados pode influenciar a facilidade ou dificuldade
com que se chega à informação que deveria ser transmitida, consequentemente
influenciando a percepção do usuário. Considerando que nos atuais ambientes
digitais há uma tendência para que as informações possam ser consumidas por
máquinas ou humanos, é importante considerar a forma com que os dados
devam ser armazenados, criando condições adequadas de visualização para a
maior quantidade de consumidores. Ainda, pretende-se criar um ambiente
informacional digital destinado ao compartilhamento dos dados de pesquisa
gerados nesse trabalho, contribuindo assim para a iniciativa do Instituto
Brasileiro de Informação em Ciência e Tecnologia em promover o acesso aberto
a dados. Considerando a interdisciplinaridade das áreas envolvidas, o projeto
possui potencial de inovação para diversos tipos de organizações. Mediante o
estudo dos dados gerados, visto que as informações norteiam grande parte dos
processos existentes, uma perspectiva de causa e efeito poderá ser traçada,
possibilitando a tomada de decisões de maneira eficaz e com taxas reduzidas de
erro. Assim, a partir da coleta, armazenamento e compartilhamento dos dados,
espera-se criar uma metodologia para implementação de um ambiente que
possibilite a análise das informações geradas automaticamente pelos sistemas
eletroeletrônicos. Isso poderia permitir um melhor controle dos processos
industriais, por exemplo, por meio da análise de dados feita por máquinas ou
humanos.
This work presents a scientific initiation research, whose objective is
the investigation of the process of management and data recovery in an
electronic system with Internet access. Considering the importance of
information in decision-making, the project brings together the areas of
electrical engineering, computer science and information science with the
intention of develop a research that addresses the function of information
capture equipment from electrical/electronic systems, as well as the
development of a database for storage of retrieved data, enabling the creation of
a prototype environment that allows the sharing of information for future
decision making. In this vein, the project is justified due to the relevance of
information generated by the electrical and electronic systems for the formation
of large databases, like the Big Data. Information is the collection, or the set of
data and knowledge organized, allowing the establishment of references about a
particular event, also allows problem solving and decision-making, based on the
rational use of this knowledge acquired through her. People and the
100
organizations need information for decision-making, from the simplest aspects
of life, like getting around, buy food, to the most complex. Taking these
principles as a starting point, the aim is to develop a prototype for a production
line control, via the Arduino microprocessor, to make it automated, creating
conditions for recovery and data (information) sharing, generated by the
sensors. The use of the Arduino in the prototyping procedures, enables
management and still allows an efficiently control of process and a lower
financial cost. The way data are presented can affect the ease or difficulty with
which the information should be transmitted, consequently influencing the
perception of the user. Whereas in today’s digital environments there is a
tendency that information can be consumed by humans or machines, it is
important to consider the way in which the data need to be stored, creating
appropriate conditions for a great number of consumers. Also, the intention is to
create an informational digital environment for the sharing of research data
generated in this work, contributing to the initiative of the Brazilian Institute of
Information in Science and Technology in promoting open access to data.
Considering the interdisciplinarity of the areas involved, the project has
potential for innovation to different types of organizations. Through the study of
generated data, since the information define much of the existing processes; a
perspective of cause and effect can be traced, allowing decision-making
effectively and with reduced error rates. So, from the collection, storage and
sharing of data, it is hoped that a methodology could be created for
implementation of an environment that allows the analysis of the information
generated automatically by electrical and electronic systems. This could allow a
better control of industrial process, for example, through the data analysis done
by machines or humans.
ALGORITMOS GENÉTICOS E APRENDIZAGEM: QUEM, DE
FATO, APRENDE?
GENETIC ALGORITHMS AND LEARNING: WHO TRULY
LEARNS?
Comunicação Oral / Oral Communication
COSTA, Monica Aiub da.
Instituto Interseção
Algoritmos genéticos, baseados na evolução biológica, mais
especificamente, na genética populacional, funcionam a partir do modelo de
sistemas adaptativos, tentando gerar soluções aceitáveis para os problemas
através de conhecimentos acumulados sobre os mesmos. Não trabalham
101
codificando um parâmetro de solução, mas conjuntos de parâmetros; não
trabalham com indivíduos, mas com populações; utilizam-se de informações
sobre custos e recompensas, e de regras probabilísticas e não determinísticas.
Ou seja, tentam replicar os processos da evolução biológica, não apenas
apresentando um passo a passo determinístico, mas atuando a partir de cálculos
de probabilidade. Consideram, portanto, os elementos históricos referentes à
origem do problema e formas anteriormente testadas para solução como fontes
de conhecimento que integram o cálculo probabilístico. Algumas pesquisas
neste campo têm gerado algoritmos capazes de, por exemplo, reconhecer rostos
(Universidade de Hong Kong); diagnosticar depressão (Universidade de
Vermont e Universidade de Harvard); identificar sarcasmo (Universidade
Hebraica); determinar personalidade (Universidade de Stanford e Universidade
de Cambridge), resumir textos (empresa Salesforce); identificar usuário bêbado
(Universidade de Rochester); produzir arte criativa (Universidade de Rutgers);
identificar orientação sexual por análise facial (Universidade de Stanford);
decodificar pensamentos (Universidade da Califórnia), entre outras atividades
anteriormente consideradas exclusividade humana. Afirmam os textos de
divulgação destas pesquisas que os resultados obtidos com o uso dos algoritmos
é mais preciso que a análise humana. Alguns algoritmos genéticos têm sido
utilizados na construção de jogos e aplicativos educacionais. Estes, muitas
vezes, ao invés de desenvolver a habilidade reflexiva e investigativa, geram
padrões específicos de associação de dados, tornando tais padrões, através da
repetição, hábitos incorporados. Até mesmo as interações humanas que se dão
por estas interfaces são estabelecidas a partir dos padrões previamente
determinados por elas, isto é, ao interagir com outros usuários de um aplicativo
ou jogo, há limites e possibilidades estabelecidos pelo software para esta
interação. Além disso, cada vez que um aplicativo é utilizado, novos dados dos
usuários são coletados, incluindo-se as formas de associação de dados; tais
dados são considerados “capital” da empresa proprietária do aplicativo.
Articulando estes pontos às hipóteses do Darwinismo Neural, proposto por
Edelman (1987; 1988; 1992), e ao conceito de hábito em Peirce, surgem alguns
questionamentos: No uso de aplicativos e/ou jogos, construídos a partir de
algoritmos genéticos, quem aprende: o usuário, o aplicativo ou a empresa
proprietária do aplicativo? Que tipo de aprendizagem possui um estudante que
aprende, com seu professor do cursinho, como escrever uma redação segundo os
critérios do algoritmo utilizado para a correção da mesma? Ou do estudante de
música que aprende a “compor” a partir do aplicativo “compositor” sem
conhecer harmonia musical? Correríamos o risco, ao criarmos máquinas capazes
de escrever livros, compor e executar músicas, criar obras de arte, ou seja,
atividades consideradas exclusividade humana, de nos tornamos dependentes
delas e, consequentemente, dependentes dos detentores da propriedade de tais
máquinas? Se nossos saberes e capacidades criativas podem se tornar
102
“propriedade” de uma empresa, que tipo de sociedade estamos criando? E nela,
quais os limites de nossas ações e de nossa criatividade?
Genetic algorithms, based on biological evolution, more specifically,
on populational genetics, based on the model of adaptive systems, trying to
generate acceptable solutions to the problems through accumulated knowledge
about them. They do not work by coding a solution parameter, but parameter
sets; they do not work with individuals, but with populations; they use
information on costs and rewards, and on probabilistic and nondeterministic
rules. That is, they try to replicate the processes of biological evolution, not only
by presenting a deterministic step by step, but by acting on probability
calculations. They consider, therefore, the historical elements referring to the
origin of the problem and previously tested forms for solution as sources of
knowledge that integrate the probabilistic calculation. Some researches in this
field have generated algorithms capable of, for example, recognizing faces
(University of Hong Kong); diagnose depression (University of Vermont and
Harvard University); identify sarcasm (Hebrew University); determine
personality (Stanford University and University of Cambridge), summarize texts
(company Salesforce); identify drunk user (University of Rochester); produce
creative art (Rutgers University); identify sexual orientation by facial analysis
(Stanford University); decode thoughts (University of California), among other
activities previously considered human exclusivity. It is stated in the
dissemination texts of these studies that the results obtained with the use of the
algorithms is more accurate than the human analysis. Some genetic algorithms
have been used in the construction of games and educational applications.
These, rather than developing reflective and investigative ability, generate
specific patterns of data association, making such patterns, through repetition,
embodied habits. Even the human interactions that occur through these
interfaces are established from the patterns previously determined by them, that
is, when interacting with other users of an application or game, there are limits
and possibilities established by the software for this interaction. In addition,
each time an application is used, new user data is collected, including forms of
data association; such data is considered "capital" of the company owning the
application. Articulating these points to the hypotheses of Neural Darwinism,
proposed by Edelman (1987, 1988, 1992), and the concept of habit in Peirce,
some questions arise: In the use of applications or games, constructed from
genetic algorithms, is it the user, the application, or the company that owns the
application that learns? What type of learning does a student learn with his
teacher of the prep course when he's taught how to write a essay according to
the criteria of the algorithm used to correct it? Or the student of music who
learns to "compose" from the application "composer" without knowing musical
harmony? Would we take the risk, by creating machines capable of writing
books, composing and performing music, creating works of art, that is, activities
103
considered human exclusivity, of becoming dependent on them and,
consequently, dependent on the owners of such machines? If our knowledge and
creative abilities can become "ownership" of a company, what kind of society
are we creating? And in it, what are the limits of our actions and our creativity?
ACESSIBILIDADE DIGITAL: REFLEXÕES NO CONTEXTO
BIG DATA
DIGITAL ACCESSIBILITY: CONSIDERATIONS IN THE BIG
DATA CONTEXT
Pôster / Poster
CRUZ-RIASCOS, Sonia Aguiar.
UFPE
REZENDE, Laura Vilela Rodrigues.
UFG
HOTT, Daniela Francescutti Martins.
UnB
No atual cenário da academia, em que, cada vez mais, profissionais e
pesquisadores são levados a utilizar técnicas avançadas para tratamento de
grande volume de dados (Big Data), estes, integrantes da corpora de pesquisas,
e decisivos para o sucesso nas respostas aos questionamentos investigativos.
Grandes desafios são percebidos no tocante ao gerenciamento e às análises de
dados que podem ser estruturados ou não estruturados. Ao contrário dos dados
tradicionais estruturados, produzidos desde o início da Era da Internet, que
podem ser modelados e armazenados em tabelas relacionais, os dados gerados,
na atualidade, advém de diversas e diferentes fontes e são disponibilizados em
formatos variados, como: páginas da Web, sites de mídias sociais, trocas de e-
mails, índices de pesquisas, fluxos de cliques, sensores de equipamentos e todo
tipo de arquivos multimídia, incluindo áudio, vídeo e fotos, dentre outros.
Estabelece-se um questionamento de que, dependendo do contexto tecnológico
que a criou, a informação está, aparentemente, cada vez mais acessível. No
entanto, ao considerar a parcela da população mundial de pessoas com
deficiência, tem-se que cerca de um a cada sete pessoas - conforme consta no
Relatório sobre Desenvolvimento Mundial do Banco Mundial de 2016 -,
104
consideram o ambiente tecnológico ainda com barreiras apesar de deter recursos
viáveis para propiciar maior interação e garantir o exercício da cidadania, da
autonomia e da independência das pessoas com deficiência. A construção da
cidadania passa necessariamente pelo acesso e uso de informação, pois tanto a
conquista de direitos políticos, civis e sociais, como a implementação dos
deveres do cidadão dependem do livre acesso à informação. Reforça-se, nesta
pesquisa, o papel fundamental da Ciência da Informação como área para a
consolidação dos estudos da acessibilidade informacional, incluindo o acesso
aos dados de pesquisas. Parte-se da premissa de que, mesmo os dados digitais
estruturados, gerados antes dos datasets considerados “Big Data” ainda não
estavam, de maneira geral, preparados segundo requisitos de acessibilidade às
pessoas com deficiência. A presente pesquisa tem por objetivo levantar questões
relacionadas ao uso de grandes datasets por pessoas com deficiência. Pretende-
se realizar reflexões acerca das limitações impostas pela ausência ou escassez de
informações acessíveis para que pesquisadores científicos com deficiência
possam manipular e utilizar inclusive dados em suas pesquisas. Trata-se de uma
pesquisa em andamento de membros da Rede Dríade, na linha de pesquisa
Curadoria Digital e Big Data. Constituída por revisão de literatura desenvolvida
mediante pesquisa bibliográfica e documental. A metodologia utilizada é de
caráter exploratória quanto aos objetivos, com abordagem qualitativa. Como
resultado, pretende-se apresentar sugestões para o aperfeiçoamento dos
ambientes digitais de maneira que estes possam contemplar a acessibilidade de
pesquisadores com deficiência. Estes investigadores devem ter acesso aos
enormes volumes de dados singulares, nunca acessados anteriormente, realizar
técnicas de análises avançadas, tais como análise de conteúdo textual, análise
preditiva de dados, mineração, estatísticas e aplicações de aprendizagem de
máquina (Machine Learning) que permitirão responder aos questionamentos
científicos contemporâneos. Desse modo, pode-se estabelecer a acessibilidade,
no contexto Big Data, para pessoas com deficiência, e por conseguinte, sua
inclusão cidadã.
In the current Big Data academic scenario, where increasingly
professionals and researchers are led to use advanced techniques for treatment
of large data processing (Big Data), part of the searches corpora that are decisive
for answers’ success to the research questions. Major challenges are done with
management and analysis of structured or non-structured data. Unlike traditional
structured data, produced since the beginning of the Internet Age, that can be
modeled and stored in relational tables, today's data comes from different
sources and appears in many forms such as web pages, social media sites, e-
mails exchanges, search indexes, click streams, equipment sensors, and all type
of multimedia files including audio, video and photos, and others. There is a
posed question about information that depending on the technological context
where it is created, information is apparently more accessible. However,
105
considering disabled people as a part of the world’s population, it is estimated
that around one in seven people - as stated in the World Bank's World
Development Report of 2016 -, believes that technological context still hold
viable resources to foster greater interaction and ensure the exercise of
citizenship, autonomy and independence of disabled people. The construction of
citizenship necessarily involves access and use of information, since both the
achievement of political, civil and social rights and the implementation of
citizens' duties depend on free access to information. It reinforces, in this
research, the fundamental role of Information Science as an area of
informational studies for accessibility consolidation, including access to
research data. It is based on the premise that even the structured digital data
generated before the datasets considered "Big Data" were still not generally
prepared according to accessibility requirements for disabled people. The
present research aims to raise issues related to the use of large datasets by
disabled people. It is intended to reflect on the limitations imposed by the
absence or scarcity of accessible information so that scientific researchers with
disabilities can manipulate and even use data in their research. This is an
ongoing research of members of the Dryad Network, at the research branch of
Digital Curation and Big Data. It is a review of literature developed through
bibliographical and documentary research. The methodology is exploratory with
a qualitative approach. As a result, it will be presented some suggestions for the
improvement of digital environments so that they can contemplate the
accessibility of researchers with disabilities. These researchers must have access
to the enormous volumes of unique data that have never been accessed before,
performing advanced analysis techniques such as textual content analysis,
predictive data analysis, data mining, statistics and Machine Learning
applications that will allow them to answer to contemporary scientific questions.
In this way, accessibility can be established, in the Big Data context, for
disabled people, and therefore, their inclusion as citizens.
COOKIES COM GOTAS DE CONTEXTO NA WEB
COOKIES WITH WEB CONTEXT DROPS
Pôster / Poster
DECARLI, Gian Carlo.
Unesp / Marília
MONTEIRO, Silvana Drumond.
UEL
106
VIDOTTI, Silvana Aparecida Borsetti Gregorio.
Unesp / Marília
Em 2018, o tema privacidade de dados tornou-se pauta principal da
mídia internacional. Isso ocorreu por conta do vazamento e utilização de
informações pessoais de milhares de usuários da plataforma de rede social on-
line Facebook. Basicamente, terceiros conseguiram acesso a informações de
usuários dessa rede e as utilizaram para influenciar, principalmente, a última
campanha política para presidenciáveis dos Estados Unidos da América. Esse
episódio trouxe à tona discussões sobre a insegurança e também o
desconhecimento da sociedade e autoridades a respeito do modus operandi de
empresas do ramo de tecnologia, no que tange à coleta, tratamento e
compartilhamento de dados pessoais de seus usuários. A inquietação para o
desenvolvimento desta pesquisa emerge do cenário supracitado, pois pretende
descrever o funcionamento de uma, entre outras tantas tecnologias empregadas
para o monitoramento de informações de utilização na Web, nomeada como
“Cookies”. Entretanto, não será de cunho desta pesquisa discutir o mérito da
privacidade, mas sim os tipos e modos de funcionamento da tecnologia
“Cookies” e como elas podem influenciar no construto do contexto na Web.
Para validar e evidenciar a forma como esta tecnologia opera, o website do
maior e-commerce da América Latina, o Mercado Livre sob o domínio “.br”,
será submetido à análise de “Cookies” por intermédio da ferramenta
disponibilizada pela organização “OneTrust Technology Ltd”, denominada
“Cookiepedia”. Seu surgimento está vinculado às regulamentações
estabelecidas pela União Europeia, em 2011, para que os websites informem
seus usuários sobre o armazenamento, coleta e recuperação de quaisquer
informações originadas de um computador, smartphone ou tablet. A
“Cookiepedia” visa esclarecer para indivíduos e organizações o funcionamento,
tipo e emprego da tecnologia “Cookies” em websites. A partir da análise do
domínio “.br” do Mercado Livre, os tipos de “Cookies” utilizados serão
evidenciados; fato que tornará possível esclarecer a empregabilidade de cada um
de seus tipos. Assim, a partir dos possíveis resultados, intenta-se vincular a
utilização da tecnologia de “Cookies” como um dos artifícios necessários para o
estabelecimento de um dos pilares da Web Pragmática, o contexto.
In 2018, the theme of data privacy has become the main subject of the
international media. This was due to the leakage and use of personal information
from thousands of users of the online social networking platform Facebook.
Basically, third parties gained access to user information from this network and
used it to influence, in particular, the last political campaign for presidential
candidates in the United States. This episode brought to the fore discussions
107
about insecurity and also the lack of knowledge of society and authorities about
the modus operandi of technology companies regarding the collection,
treatment, and sharing of personal data of their users. The concern for the
development of this research emerges from the above scenario since it intends to
describe the operation of one, among many other technologies used for the
monitoring of information of use in the Web, named as "Cookies". However, it
is not in the interest of this research to discuss the merits of privacy, but rather
the types and modes of operation of the technology "Cookies" and how they can
influence the context construct on the Web. To validate and demonstrate how
this technology operates, the website of the largest e-commerce in Latin
America, the Free Market under the domain ".br", will be submitted to the
analysis of "Cookies" through the tool provided by the organization "OneTrust
Technology Ltd", called "Cookiepedia". Its emergence is linked to the
regulations established by the European Union in 2011 so that websites inform
their users about the storage, collection, and retrieval of any information
originated from a computer, smartphone or tablet. "Cookiepedia" aims to clarify
for individuals and organizations the operation, type and use of technology
"Cookies" in websites. From the analysis of the ".br" domain of the Free
Market, the types of "Cookies" used will be evidenced; a fact that will make it
possible to clarify the employability of each of its types. Thus, from the possible
results, it is tried to link the use of the technology of "Cookies" as one of the
artifices necessary for the establishment of one of the pillars of the Web
Pragmatic, the context.
BIG DATA E PÓS VERDADE: CONSIDERAÇÕES À LUZ DO
NEOPRAGMATISMO
BIG DATA AND POST-TRUTH: CONSIDERATIONS IN THE
LIGHT OF NEOPRAGMATISM
Comunicação Oral / Oral Communication
DUCATTI, Gabriel Engel.
Unesp / Marília
GONZALEZ, Maria Eunice Quilici.
Unesp / Marília
Este trabalho visa discutir o conceito de verdade, a partir de uma
perspectiva pragmatista, mirando analisar o que se tem denominado “pós-
108
verdade”. A defesa de que vivenciamos uma “era de pós-verdade” indica que
não há mais um cuidado e preocupação com os fatos ditos objetivos e com a
própria verdade na formação da opinião pública, pois, se crê que apelar para o
emocional e para as crenças dos indivíduos se mostra mais efetivo. Richard
Rorty alega que a verdade é inalcançável e que tal conceito deve ser
abandonado, restando aos elementos de justificação papel central na inquirição e
na fixação de nossas crenças. Rorty entende que a verdade e o conhecimento só
podem ser julgados pelos padrões dos inquiridores dentro do próprio contexto,
uma vez que a justificação se dá por referência a algo que já se acredita. Há,
assim, um distanciamento do conceito de verdade como um fim da investigação,
e uma abertura pluralista focada na justificação como algo que traria melhores
consequências para um indivíduo ou comunidade. Entretanto, o debate acerca da
verdade parece ter saído da esfera teórica e tem revelado seu poder e efeitos
hoje. Com o advento dos Big Data, empresas como a Cambridge Analytica têm
conseguido, a partir de seus algoritmos e do conglomerado de dados pessoais
colhidos com e sem consentimento, antecipar disposições e vulnerabilidades de
um grande número de pessoas. Conhecendo a personalidade e a privacidade de
milhões de cidadãos, de acordo com o ex-funcionário Christopher Wylie em
entrevista ao noticiário britânico Channel 4, Cambridge Analytica pode “[...]
conscientemente deturpar a verdade de uma forma propícia a seus objetivos”.
Como a própria definição de “pós-verdade” indica, há um apelo maior sobre as
emoções e crenças dos indivíduos quando na formação da opinião pública do
que uma preocupação com fatos e com a verdade. Tendo em vista esse
paradigma em que se consegue ter acesso a informações muito pessoais, o
direcionamento e o modo de publicidade conseguem afetar seu público mais
efetivamente e de um modo quantitativamente relevante. Argumentamos que até
as próprias fake news, que se inserem nesse contexto em que não há uma
preocupação em se transmitir fatos ditos “verdadeiros”, mas sim com os efeitos
emocionais da notícia, ganham maior poder de influência e alcance na ação
social. Argumentaremos também que a relação da sociedade com o conceito de
verdade toma características inéditas tendo em vista o potencial dos Big Data, e
isso reflete na mídia e no modo de consumo de notícias e informações
contemporâneo. A verdade aparenta perder sua característica “objetiva” e passa
a se sustentar sobre as emoções e crenças pessoais e de uma cultura, o que, a
nosso ver, parece não se distanciar da perspectiva rortyana e merece uma análise
e reflexão filosófico-interdisciplinar.
This study aims to discuss the concept of truth from a pragmatist
perspective, seeking to analyze what has been called “post-truth”. The defense
that we are experiencing a “post-truth era” indicates that there is no longer care
and concern with facts said to be objective, or with the truth itself, in the
formation of public opinion, because it is believed that appealing to the
emotions and beliefs of individuals is more effective. Richard Rorty,
109
contemporary philosopher, claims that the truth is unreachable and that this
concept itself must be abandoned, it remaining for the elements of justification
to play a central role in inquiry and in fixing our beliefs. Rorty understands that
truth and knowledge can only be judged by the standards of the inquirers within
their own context, since justification is given reference to something that is
already believed. Hence, there is a distancing from the concept of truth as an
inquiring goal, and the opening of a pluralistic approach focused on justification
as something that would bring better consequences to an individual or
community. However, the debate about truth seems to have come out of the
theoretical sphere and has revealed its power and effects today. With the advent
of Big Data, companies like Cambridge Analytica have been able to anticipate
the dispositions and vulnerabilities of a large number of people by means of
their algorithms and the accumulation of personal data collected with and
without consent. Knowing the personality and privacy of millions of citizens,
according to the former employee Christopher Wylie, in an interview broadcast
on the British Channel 4, Cambridge Analytica can knowingly misrepresent the
truth in such a way that is conducive to their objectives. As the very definition
of “post-truth” says, there is a greater appeal to the emotions and personal
beliefs when shaping public opinion than a concern with facts and truth. In view
of this paradigm in which very personal information can be accessed, the
directing and the mode of advertising can affect its audience more effectively
and in a quantitatively relevant way. We argue that even the very fake news,
which fit into the context where there is no concern regarding the transmission
of “true” facts, but rather with the emotional effects of the news, gain greater
power of influence and reach in social action. We also argue that the relation of
society with the concept of truth acquires unprecedented features in view of Big
Data's potential, and that this reflects in the media and in the contemporary
mode of consumption of news and information. The truth appears to have lost
its "objective" character and starts to rely on emotions and cultural and
individual beliefs. In our view, this does not seem to be distanced from the
Rortyan perspective and deserves a philosophical-interdisciplinary analysis and
reflection.
PESSOALIDADE E COMPUTAÇÃO VESTÍVEL: ANÁLISE DO
CONCEITO DE EU QUANTIFICADO NA ERA DOS BIG DATA
PERSONHOOD AND WEARABLE COMPUTING: ANALYSIS
OF THE CONCEPT OF QUANTIFIED SELF IN THE AGE OF
BIG DATA
Pôster / Poster
ELEUTÉRIO, Felipe.
110
Unesp / Marília
Nosso objetivo neste trabalho é analisar o conceito de eu quantificado
(Quantified Self), relacionado ao uso de dispositivos portáteis e de computação
vestível, e seu possível papel na constituição da identidade pessoal. De acordo
com Gary (2011) e Hoogendoorn et al. (2018), o eu quantificado é qualquer
pessoa que usufrui das qualidades do monitoramento de si mesma (self-
tracking) por meio de tecnologias, dentre as quais destacamos, as de
computação vestível. Os computadores vestíveis são dispositivos integrados ao
espaço pessoal do usuário e que possuem constância de operação na coleta de
informações sobre a qualidade de sono, performance cognitiva, frequência
cardíaca, taxa de glicose no sangue, entre muitos outros dados primários (Little
Data) a partir de óculos digitais, relógios inteligentes, faixas elásticas peitorais e
outros gadgets (Mann, 1998). Em seu trabalho “Big Data is a big lie without
Little Data”, Mann (2017) defende que, apesar dos interesses de corporações,
como Facebook, Google, Amazon, no controle e previsão da conduta das
pessoas por meio dos Big Data, as pessoas deveriam decidir o que divulgar na
internet a respeito de si mesmas, para não correrem riscos diretamente
relacionados a sua privacidade simplesmente pelo uso frequente de novas
tecnologias que lhes podem ser úteis. Segundo Mann (2017), e de forma
bastante otimista, computadores vestíveis servem, na verdade, como formas de
sousveillance (forma de empoderamento pessoal por meio da vigilância bottom-
up ou undersight), ao invés da surveillance (autoritária e nem sempre
transparente forma de vigilância top-down ou oversight). No mesmo sentido,
Swan (2013) aponta que as informações que são coletadas pelas pessoas a
respeito de si mesmas e usadas por elas podem servir como formas de
autoconhecimento. Isto é, para Swan (2013), uma pessoa quantificada ampliaria
o sentimento de posse e a sensação de controle que tem com relação a seu
próprio corpo e seu ambiente, instanciando, por sua vez, uma perspectiva de
quarta-pessoa. Swan (2013, 2015) caracteriza a perspectiva de quarta-pessoa
como sendo o ponto de vista emergente da relação de dependência existente
entre uma pessoa quantificada e os gadgets vestíveis que utiliza com frequência,
pois, a partir de tal relação, a pessoa pode realizar algum tipo de introspecção,
mas mediada por tecnologia. Buscamos analisar as ideias de dois filósofos em
especial, que trataram da noção de pessoa e da possibilidade de extensão da
pessoalidade (James, 1890; Baker, 2000) e dirigir críticas tanto ao otimismo do
empoderamento pessoal associado a uma pessoa quantificada quanto à noção de
quarta pessoa (cujo pressuposto de neutralidade explicativa não nos parece
convincente). Para a filósofa Lynne Baker (2000), é uma pessoa quem instancia
a capacidade forte de referir-se a si mesma em primeira pessoa, atribuindo
propriedades a si mesma a seu respeito, a partir do uso correto da palavra “eu”
ou “meu”. No mesmo sentido, o filósofo pragmatista William James (1890), ao
111
analisar o conceito de eu empírico, acrescenta que tudo aquilo que uma pessoa
sente como sendo “seu” e as ações que pratica em concomitância com esse
sentimento fazem parte de sua pessoalidade, assim a identidade de uma pessoa
estende-se não apenas a seu corpo e suas capacidades mentais, mas também a
suas roupas, sua casa, seus familiares e amigos e, quem sabe, como pretendemos
investigar se no mesmo sentido, aos dados coletados por pessoas quantificadas
por meio de tecnologias de computação vestível.
Our aim in this work is to analyze the concept of Quantified Self,
related to the use of portable and wearable computing devices, and its possible
role played in the constitution of personal identity. According to Gary (2011)
and Hoogendoorn et al. (2018), the Quantified Self is any person engaged in
self-tracking by devices, among which we highlight, wearable computing
technologies. Wearable computers are devices that bear the personal space of
the user and that are always on and always ready and accessible to collect
information about quality of sleep, cognitive performance, heart rate, blood
glucose level, and many other primary data (Little Data) by digital glasses,
smartwatches, chest straps and other gadgets (Mann, 1998). In his work “Big
Data is a big lie without Little Data”, Mann (2017) defends that, despite the
interests of corporations, such as Facebook, Google, Amazon, in controlling and
predicting people’s conduct by Big Data, people should decide what to publish
the internet about themselves, not to take risks directly related to their privacy
simply by the frequent use of new technologies that could be useful for them.
For Mann (2017), optimistically, wearable computers serve, actually, as
sousveillance devices (as a form of personal empowerment by an bottom-up or
undersight veillance), instead of surveillance (an authoritarian and not always
transparent form of top-down or oversight veillance). In the same sense, Swan
(2013) points out that the information collected by people about themselves and
used by them could serve as a form of self knowledge. Namely, for Swan
(2013), a quantified person would amplify her feeling of ownership and her
sensation of control over her own body and environment, instantiating a fourth-
person perspective. Swan (2013, 2015) characterizes a fourth-person perspective
as a point of view that emerges from the dependence relationship existing
between a quantified person and wearable gadgets used by her frequently,
because, from this relationship, the person can make some kind of introspection,
but mediated by technology. We look forward to analyze some ideas of two
philosophers in particular, that dealt with the notion of person and with the
possibility of extension of personhood (James, 1890; Baker, 2000), to criticize
both the optimism of personal empowerment associated to a quantified person
and the notion of a fourth-person perspective (which assumption of an neutral
explanation doesn’t seem so convincing for us). According to the philosopher
Lynne Baker (2000), a person is who instantiates a strong capacity of self-
referring in the first person, attributing properties to itself about itself, by the
112
correct use of the word “I” or “mine”. In the same sense, the pragmatist
philosopher William James (1890), while analyzing the concept of empirical
Self, adds that the total sum of everything a person feels as “hers” and the
actions she does in concomitance with such a feeling is recognized as part of her
personhood, so the identity of a person extends itself not just to her body and
her psychic powers, but also her clothes, her house, members of her family, her
friends and also, who knows, as we’d like to investigate if in the same sense, to
her data collected by quantified people by wearable computing technologies.
ÉTICA PROFISSIONAL EM CIÊNCIA DA INFORMAÇÃO:
UMA ANÁLISE EM CÓDIGOS DE ÉTICA DOS ARQUIVISTAS
E BIBLIOTECÁRIOS
PROFESSIONAL ETHICS IN INFORMATION SCIENCE: AN
ANALYSIS OF THE ARCHIVISTS AND LIBRARIANS CODES
OF ETHICS
Pôster / Poster
EVANGELISTA, Isadora Victorino.
Unesp / Marília
SILVA, Andrieli Pachú da.
Unesp / Marília
GUIMARÃES, José Augusto Chaves.
Unesp / Marília
A reflexão ética no contexto informacional perpassa por aspectos de
produção, organização e representação da informação, bem como de seu acesso
e uso. Nesse sentido, evoca-se a importância do profissional da informação que
realiza esses processos, levando em conta seu contexto de atuação, ressaltando
aqui, os arquivistas e os bibliotecários. A ética, quando relacionada à atuação
profissional, visa refletir sobre os valores para guiar o comportamento de
determinada categoria profissional e manifesta-se por meio dos documentos
como: código de ética ou deontologia. Assim, o objetivo do trabalho foi analisar
e comparar esses documentos em âmbito nacional e internacional, aplicando a
análise de conteúdo de Bardin (2009) buscando identificar as seguintes
113
categorias de análise: por quem o documento foi produzido, ano do documento e
nome atribuído ao documento. Para compor o corpus da pesquisa, foi
estabelecido o critério de idioma. Nesse sentido, só foram coletados os
documentos publicados em inglês, italiano, francês, português e espanhol, que
correspondessem pelo menos como um dos idiomas oficiais do país. No que
tange aos bibliotecários, a pesquisa foi realizadano site da International
Federation of Library Associations – IFLA, que dispõe 62 Códigos de valores
profissionais, divididos entre 61 países e o código da própria associação
internacional; a maioria dos códigos encontram-se traduzidos para o inglês ou o
espanhol. No que concerne aos códigos do profissional arquivista, diferente da
IFLA, o International Councilon Archives – ICA, não dispõe uma listagem dos
códigos de outros países, mas sim, o código próprio traduzido para 24 idiomas,
assim elegeu-se a versão em português para análise. Assim, foi utilizada uma
listagem elaborada pela Universityof Groningen da Holanda, que elenca alguns
códigos para o arquivista, bem como a busca nos sites de associações
profissionais. Considerando os códigos que se encontram nos idiomas
supracitados, chegou-se ao corpus de 46 documentos, sendo eles: 15 para
arquivistas, 28 para bibliotecários e 3 englobando as duas profissões. Partiu-se
então para a análise de conteúdo dos documentos. Na categoria sobre quem são
os produtores desses documentos algumas observações podem ser traçadas. A
maioria dos documentos são provenientes de conselhos ou associações
profissionais, podendo ser compostas só de arquivistas, só de bibliotecários, ou
híbridas, sendo tanto de arquivistas como bibliotecários. Tais conselhos e
associações podem ser observadas como internacionais, nacionais, locais e até
mesmo temáticas, como o caso da The Association of Moving Image Archivists e
da International Association of Sound and Audiovisual Archives. Apenas um
documento não foi produzido por uma associação profissional do âmbito da
Ciência da Informação, mas por uma associação regulamentadora profissional: o
código das Filipinas. Na categoria relacionada ao ano do documento, é
necessário esclarecer que se trata do ano da versão do documento que está
vigente. Nesse sentido, dos 46 documentos analisados, 13 não forneciam essa
informação, ao passo que os outros 33 variaram entre o período de 1976 à 2017.
Quanto ao título do documento, observou-se uma variação entre códigos de
ética, código de deontologia ou código de conduta. Ainda observou-se que,
poucos códigos aplicam sanções àqueles que descumprem as normas ali
estabelecidas, o que leva a descaracterizar o documento enquanto
regulamentador. Nesse sentido, tem-se como hipótese de pesquisa que esse
conjunto de documentosprecisa ter seus nomes revistos, pois, enquanto um
conjunto de valores que regulamentam uma profissão, o termo mais correto
seria aquele advindo da Deontologia, área da Ética que se preocupa com as
questões profissionais. Assim, estudos aprofundados sobre Ética e Deontologia
carecem de atenção pela área.
114
The ethical reflection on the informational context passes through
aspects of production, organization and representation of information, as well as
its access and use. In this sense, emphasize the importance of the information
professional that these processes do, in the work context, the archivists and the
librarians. The ethics, when related to the professions, search reflections about
the values to guide the behavior of determined professional and their
manifestation is given trough documents named ethical or deontology codes.
The objective of this research to analyze and compare these codes in a national
and international scenario, applying the content analyses proposed by Bardin
(2009), identifying as categories: who produced the document, the year and the
name that is attributed to the document. To compose de research corpus, a
language criterion was adopted: just codes produced in countries that english,
italian, french, portuguese or spanish was at least one of the official languages.
In the librarian scope, the research was done in the International Federation of
Library Associations – IFLA website, which has 62 codes of professional
values, divided in 61 countries and the code of the Association; the most of the
codes are translated in english or spanish. In the archival scope a list proposed
was the University of Groningen, in Netherlands, end the Code of the
International Council on Archives - the version in Portuguese and the research
in some professional associations. Considering the codes in the languages
already said, the corpus was composed by 46 documents: 15 to archivists, 28 to
librarians and 3 to both professions. After these first analyses, the content
analysis was done. In the producers category, was possible to see that the most
of these codes are made by professional associations and advices, compound by
not just archivists or librarians, but by the both too. These producers could be
national, international, local and even thematic, like The Association of Moving
Image Archivists e da International Association of Sound and Audiovisual
Archives. Just one code was not made by a professional association in
Information Science, but by a professional regulatory association: the
Philippines Code. In the second category, the year of the document, it is
necessary to explain that could be the year of the last actualization, not
necessarily the year of creation of the document. In this sense, 13 documents did
not provided this information and 33 diversify between 1976 and 2017. About
the documents titles, three denominations were found: ethical codes, deontology
codes and conduct codes. It was still observed that just a little of the codes apply
sanctions to those who disregard the rules exposed, what deprive the document
as regulator. As hypothesis, we could say is that set of documents must have
their names revised, because as a set of values that regulate a profession, the
more correct term would be that coming from Deontology, an area of Ethics that
is concerned with professional issues. Thus, more studies on Ethics and
Deontology need attention by area.
115
QUESTÕES ACERCA DA AÇÃO: O PROBLEMA DA
AUTONOMIA EM NAGEL
QUESTIONS ABOUT THE ACTION: THE PROBLEM OF
AUTONOMY IN NAGEL
Pôster / Poster
FARIA, Eduardo Messias Marton de.
Unesp / Marília
ALVES, Marcos Antônio.
Unesp / Marília
Ao tratar a relação entre objetividade e ação, Thomas Nagel questiona a
possibilidade da autonomia na ação. Na obra “The View From Nowhere”, o
filósofo trata o conceito de visão externa – interpretação do mundo com o
mínimo possível de preconceitos do sujeito particular na busca de uma visão
holística sobre o todo existente – e como essa caracterização da visão externa é
importante para a compreensão objetiva das questões presentes. Nagel
caracteriza a ação como qualquer movimento que não seja involuntário. Ele
busca encontrar as causas explicativas da ação a partir, em um primeiro
momento, da visão objetiva do mundo. Deparando-se objetivamente com o
mundo, o ser humano assemelha-se a um produto, isto é, a algo que não é mais
do que um processo resultante presente em um grande todo. A autonomia na
ação mostra-se perdida a partir disso; as reações químicas, os impulsos neurais,
os acontecimentos físicos como um todo, parecem não deixar espaço para algo
além do que uma visão que o filósofo caracteriza como naturalista. Nagel, ciente
disso, questiona-se como poderia ser concebida a existência da autonomia em
um mundo que, quando visto a partir da visão externa, faz parecer a ação ser um
produto? Como sustentar a crença, partindo da visão interna, que a autoria de
nossas ações não é apenas uma aparência, mas uma crença justificável? O
filósofo, partindo de seu entendimento de autonomia - de que as circunstâncias
antecedentes a uma ação, inclusive a condição do agente, não determina suas
ações ao todo –, encontra adversidades em tornar compatível com o panorama
apresentado pela visão externa e a intuição da visão interna. O ser humano,
através de seu entendimento individual e interno, entende suas ações não como
resultado, mas como início de algo não totalmente implícito no meio externo
que também o comporta. Nagel, ao investigar a autonomia e sua possibilidade
na ação, infere que, de acordo com a análise do mundo externo, cabe mais a
116
impotência e o ceticismo em relação à autonomia que, no presente momento,
um horizonte palpável. O que aqui estamos tratando como o problema da
autonomia está em contato com o longo debate entre as formas de determinismo
e os graus de livre-arbítrio admitido por cada postura ontológica ao longo da
história da filosofia e sua relação com a ação humana. O presente trabalho tem a
intenção, sobretudo, de contribuir para a discussão sobre autonomia e ação
autônoma através de uma exposição assertiva sobre o filósofo, seus conceitos e
suas argumentações. Nagel pode ser considerado mais um autor que entra nessa
querela sem se arriscar a deixar conclusões definitivas, dado o cunho
complicado e a importância dessas questões. De forma análoga, pretendemos
contribuir para a continuidade do debate através de colocações que julgamos
éticas e sóbrias.
In dealing with the relationship between objectivity and action, Thomas
Nagel questions the possibility of autonomy in action. In "The View From
Nowhere," the philosopher discusses the concept of external view –
interpretation of the world with the least possible biases of the particular subject
in the search for a holistic view of the existing whole – and how this
characterization of external vision is important for the objective understanding
of the present issues. Nagel characterizes action as any movement that is not
involuntary. He seeks to find the explanatory causes of action from, first, the
objective view of the world. Being faced objectively with the world, the human
being resembles a product, namely something that is no more than a resulting
process present in a great whole. The autonomy in the action shows itself lost
from there; chemical reactions, neural impulses, physical events as a whole
seem to leave no room for anything other than a view that the philosopher
characterizes as a naturalist. Nagel, aware of this, questions how the existence of
autonomy could be conceived in a world which, when watched from an outside
view, makes action appear to be a product? How can we sustain belief, based on
inner vision, that the authorship of our actions is not just an appearance, but a
justifiable belief? The philosopher, starting from his understanding of autonomy
– that the circumstances antecedent to an action, including the condition of the
agent, does not determine his actions to the whole -, he encounters adversities in
making compatible with the panorama presented by the external vision and the
intuition of the internal vision. The human being, through his individual and
internal understanding, understands his actions not as a result, but as the
beginning of something not totally implicit in the external environment that also
contains him. Nagel, in investigating autonomy and its possibility in action,
infers that, according to the analysis of the external world, there is more to
helplessness and skepticism about autonomy than, at present, a palpable
horizon. What we discuss here as the problem of autonomy is in contact with the
long debate between the forms of determinism and the degrees of free will
admitted by each ontological posture throughout the history of philosophy and
117
its relation with human action. The present work intends, above all, to contribute
to the discussion about autonomy and autonomous action through an assertive
exposition about the philosopher, his concepts and his arguments. Nagel may be
considered another author who enters into this quarrel without venturing to
make definite conclusions, given the complicated nature and importance of
these issues. In an analogous way, we intend to contribute to the continuity of
the debate through placements that we consider ethical and sober.
AS EMOÇÕES E OS ASPECTOS SUBJETIVOS DA
EXPERIÊNCIA DO USUÁRIO
EMOTIONS AND SUBJECTIVE ASPECTS OF USER
EXPERIENCE
Comunicação Oral / Oral Communication
FERREIRA, Ana Maria Jensen Ferreira da Costa.
Unesp / Marília
VIDOTTI, Silvana Aparecida Borsetti Gregorio.
Unesp / Marília
Considerando o aumento das informações disponíveis em ambientes
informacionais, e a necessidade de promover o acesso otimizado para um maior
número de pessoas, faz com que sejam repensadas as formas de planejamento
dos Ambientes Informacionais Digitais. Objetiva-se com esse trabalho refletir
sobre a importância dos estudos relacionados com a Experiência do Usuário
(UX) e a Arquitetura da Informação (AI) para o desenvolvimento de websites,
seus aspectos subjetivos e as emoções que possam ser geradas no momento da
interação. Para tanto, utilizou-se uma metodologia exploratória, descritiva com
embasamento teórico focado na Experiência do Usuário, nos aspectos subjetivos
e nas características de qualidade de uso, e na Arquitetura da Informação, e no
desenvolvimento de projetos de websites. Percebe-se que um website bem
estruturado internamente e uma interface bem projetada, atende as expectativas
do usuário e no momento da interação desencadeiam sentimentos e emoções.
Assim, as atividades prévias tanto para o desenvolvimento de um projeto de AI
(com foco na funcionalidade e usabilidade) quanto de UX (com foco nos
aspectos subjetivos de uso) está em identificar as características do Usuário, do
Contexto e do Conteúdo, ou seja, para quem será desenvolvido o website, o
contexto de uso e os recursos disponíveis, e que tipo de conteúdo irá atender as
118
necessidades do usuário. Certas dificuldades podem surgir no momento de
interação do usuário com os ambientes digitais como por exemplo, as
relacionadas com aspectos cognitivos, habilidades e experiências que o
indivíduo carrega em sua história de vida resultando em emoções que são
desencadeadas de acordo com as funcionalidades externas, dispositivos de
acesso (hardware), a plataforma (software), a interface e a estratégia de acesso
ao conteúdo, o que desencadeia emoções relacionadas ao esforço no acesso e
uso das informações. A literatura de Experiência de Usuário aponta que o
sentimento de satisfação no uso de um determinado aparato, surge da junção das
qualidades objetivas e subjetivas decorrentes do uso de um produto, sendo que,
as qualidades objetivas no uso estão vinculadas com o produto e relativa à sua
funcionalidade como: efetividade, eficiência, produtividade, corresponder às
características do usuário, contexto de uso e não oferecer riscos, enquanto que
as qualidades subjetivas estão relacionadas com um grupo de características de
qualidade representando as impressões subjetivas que surgem no momento do
uso de um determinado artefato e estão identificadas como: senso de realização,
alívio, alegria, deleite, prazer, encantamento, beleza, simpatia, desejo de uso
iterativo. Desse modo, observa-se a importância da Experiência do Usuário com
estudos voltados aos aspectos subjetivos, sentimentos e emoções, que emanam
no momento do acesso e uso de um ambiente informacional digital para orientar
nas estratégias do desenvolvimento da Arquitetura da Informação. Vale destacar
que no momento da interação outros fatores devem ser considerados como
estados individuais do usuário, por exemplo, os estados emocionais, psíquicos,
cognitivos, agregados ou não à influência da tecnologia utilizada (diferentes
modelos de dispositivos); a funcionalidade do produto/serviço (ambiente
digital); o design da interface (recursos de cores, destaques, letra; qualidade de
conteúdo e organização da informação); e ainda os recursos que podem
contemplar a usabilidade e a acessibilidade.
Considering the increase of the information available in informational
environments, and the need to promote optimized access for a larger number of
people, it is necessary to rethink the forms of planning of the Digital
Information Environments. The objective of this work is to reflect on the
importance of studies related to User Experience (UX) and Information
Architecture (AI) for the development of websites, their subjective aspects and
the emotions that can be generated at the moment of interaction. For that, an
exploratory, descriptive methodology with a theoretical basis focused on the
User Experience, on the subjective aspects and the quality of use characteristics,
and on Information Architecture, and on the development of website designs
was used. It is noticed that a website well structured internally and a well
designed interface, meets the expectations of the user and at the moment of
interaction trigger feelings and emotions. Thus, the previous activities for both
the development of an AI project (focusing on functionality and usability) and
119
UX (focusing on the subjective aspects of use) are to identify the characteristics
of the User, the Context and the Content, that is , for whom the website will be
developed, the context of use and the available resources, and what kind of
content will meet the needs of the user. Certain difficulties may arise in the
user's interaction with digital environments, such as those related to cognitive
aspects, abilities and experiences that the individual carries in their life history
resulting in emotions that are triggered according to external functionalities,
devices access (hardware), the platform (software), the interface and the strategy
of access to the content, which triggers emotions related to effort in accessing
and using information. The User Experience literature indicates that the
satisfaction feeling in the use of a certain apparatus arises from the combination
of the objective and subjective qualities resulting from the use of a product, and
that the objective qualities in use are linked to the product and relative to the its
functionality as: effectiveness, efficiency, productivity, correspond to the
characteristics of the user, context of use and do not offer risks, while the
subjective qualities are related to a group of quality characteristics representing
the subjective impressions that arise when using a and are identified as: sense of
achievement, relief, joy, delight, pleasure, enchantment, beauty, sympathy,
desire for iterative use. Thus, the importance of the User Experience is studied
with studies focused on the subjective aspects, feelings and emotions that
emanate at the moment of access and use of a digital informational environment
to orient in the strategies of the Information Architecture development. It is
worth mentioning that at the moment of interaction other factors should be
considered as individual states of the user, for example, emotional, psychic,
cognitive states, aggregated or not to the influence of the technology used
(different device models); the functionality of the product / service (digital
environment); the design of the interface (color features, highlights, letter,
content quality and information organization); and the resources that can include
usability and accessibility.
PERCEPÇÃO-AÇÃO EM AMBIENTES TECNOLÓGICOS: A
PERCEPÇÃO DIRETA SOBREVIVERÁ?
PERCEPTION-ACTION IN TECHNOLOGICAL
ENVIRONMENTS: WILL A DIRECT PERCEPTION SURVIVE?
Pôster / Poster
FERREIRA, Sabrina Balthazar Ramos.
Unesp / Marília
120
CAZALINI, Vinícius Mantovani.
Unesp / Marília
O problema que guiará a presente reflexão pode ser assim enunciado:
Pode a percepção direta de informações disponíveis no ambiente para a ação dos
agentes sociais se efetivarno contexto de dispositivos tecnológicos?A hipótese a
ser verificada é que agentes sociais percebem diretamente o ambiente por meio
de dispositivos tecnológicos,percepção essa não mediada por representações
mentais. Atualmente, grande parte da nossa sociedade convive com dispositivos
tecnológicos diariamente, o que propiciou novas possibilidades de
percepção/ação ao ser humano. Aparelhos tecnológicos, tais como smartphones,
tablets e computadores, oferecem ferramentas que auxiliam o agir no mundo,
seja aproximando pessoas de diferentes lugares ou oferecendo cada vez mais
informações que proporcionampossibilidades de ação ao agente social. Em
consonância com os pressupostos da Filosofia Ecológica, entendemos que
organismos e ambiente constituem um sistema regido por uma relação de
mutualidade. Em situações naturais, organismos percebem diretamente
affordances, que são informações disponíveis no ambiente para a ação, sem o
uso de representações mentais no ato perceptivo. Tal percepção ocorreem
nichos, que são ambientes concebidos pela dinâmica de percepção-ação de
organismos incorporados e historicamente situados. Devido à coevolução
organismo-ambiente, nichos possuem características dinâmicas e sistêmicas,
sendo que alterações em uma das partes podem implicar alterações em outras.
Nesse sentido, é possível presumir que alterações em larga escala verificadas no
ambiente, como a presença maciça de dispositivos tecnológicos, podem alterar a
forma como agentes sociais percebem/agem no mundo. Emambientes cada vez
mais permeados por tecnologias, a percepção da informação para a ação ainda
acontece de forma direta pelo agente? Ainda que a relação do agente com o
mundo atual seja, em parte, mediada por dispositivos tecnológicos,ao
admitirmos a hipótese que nichos são constituídos a partir da percepção-ação
dos organismos, podemos assumir que tais dispositivos fazem parte do
nichoatual de agentes que coevoluíram em sociedades informatizadas. Dessa
forma, podemos supor que esses agentes percebem o mundo diretamente, sem
processos inferenciais no ato perceptivo, devido a tais dispositivos terem sido
incorporados em seus nichos? É sobre essas questões que a respectiva
apresentação irá se pautar para analisar a percepção-ação de agentes situados em
um mundo permeado pelas tecnologias informacionais.
The problem that will guide the present reflection can be stated as
follows: Can the direct perception of available information in the environment
for the action of the social agents take place in the context of technological
devices? The hypothesis to be verified is that social agents perceive the
121
environment directly through technological devices, perception that is not
mediated by mental representations. Nowadays, much of our society lives with
technological devices daily, which has given new possibilities of
perception/action to the human being. Technological gadgets, such as
smartphones, tablets and computers, offer tools that help to act in the world,
whether approaching people from different places or offering more and more
information that provides possibilities of action to the social agent. In line with
the assumptions of Ecological Philosophy, we understand that organisms and
environment constitute a system governed by a mutuality relationship. In natural
situations, organisms directly perceive affordances, which are information
available in the environment for action, without the use of mental
representations in the perceptual act. Such perception occurs in niches, which
are environments conceived by the perception-action dynamics of incorporated
and historically situated organisms. Due to organism-environment coevolution,
niches have dynamic and systemic characteristics, and changes in one part may
imply changes in others. In this sense, it is possible to assume that large-scale
changes in the environment, such as the massive presence of technological
devices, can change the way social agents perceive/act in the world. In
environments increasingly permeated by technologies, does the perception of
information for action still happens directly by the agent? Although the relation
of the agent to the present world is mediated by technological devices, in
admitting the hypothesis that niches are constituted from the perception-action
of organisms, we can assume that such devices are part of the current niche of
agents that coevolved in computerized societies. In this way, can we suppose
that these agents perceive the world directly, without inferential processes in the
perceptual act, due to such devices have been incorporated in their niches? It is
on these issues that the respective presentation will be oriented to analyze the
perception-action of agents located in a world permeated by informational
technologies.
A INFORMAÇÃO E MODA NA ERA DO BIG DATA: COMO A
INFORMAÇÃO DIGITAL TORNOU A MODA MAIS DINÂMICA
INFORMATION AND FASHION IN THE AGE OF BIG DATA:
HOW DIGITAL INFORMATION MAKES THE MOST
DYNAMIC FASHION
Pôster / Poster
FERREIRA, Tamires Guedes.
UCA
122
O presente resumo tem como objetivo analisar as mudanças que
ocorreram no campo da moda com a chegada do Big Data, visto que o mundo
da moda sempre utilizou de informações como sua grande aliada na construção
de tendências. Nesse sentido, a moda desenvolveu um sistema de informações
que engloba várias fontes, com base em diferentes áreas como, por exemplo, a
antropologia, filosofia, sociologia, psicologia, artes, comunicação, economia,
marketing e mercado. As fontes mencionadas possuem informações que quando
alinhadas a sensibilidade, percepções dos sujeitos que as consomem e a fatos
sociais são capazes de desenvolver tendências de forma assertiva, conseguindo
assim, influenciar a formação de opiniões dos indivíduos. Com a chegada da
internet, as informações tornaram-se cada vez mais disponíveis, possibilitando
assim a coleta de dados viável enquanto processo. Antes, contidas em revistas,
livros e demais fontes analógicas tornava a coleta lenta, agora com a internet, o
processo passou a ser extremamente rápido, tanto para as empresas como para o
consumidor, gerando um ciclo de consumo mais acelerado e demandando das
empresas da moda uma constante construção de novidades. Com isso, grandes
volumes de dados são gerados pelos usuários a todo instante na internet fazendo
com que a capacidade de compreender as demandas e percepções sociais no
contexto da moda seja muito complexa. Com o passar dos anos as bases
tornaram-se enormes e a busca de novas informações ficaram tão complicadas
quanto na busca no modo analógico. Sendo assim, tecnologias como o Big Data
passaram a registrar essas informações e ajudar as empresas em seus processos
de busca, e assim auxiliar em suas tomadas de decisões. Para tanto, torna-se
necessário o uso do processo de inteligência competitiva juntamente com o Big
Data enquanto ferramenta de tecnologia. Dessa forma, o presente resumo
utilizou de levantamento bibliográfico, com o intuito de chamar a atenção para
futuras pesquisas que relacionem o uso da informação na moda frente ao Big
Data, contribuindo assim para um cenário pouco trabalhado pela Ciência da
Informação, como é o caso do universo da moda.
This abstract is intended to analyze the changes that have occurred in
the field of fashion with the arrival of Big Data, since the fashion world has
always used information as its great ally in the construction of trends. In this
sense, fashion has developed an information system that encompasses various
sources, based on different areas such as anthropology, philosophy, sociology,
psychology, arts, communication, economics, marketing and the market. The
aforementioned sources have information that when aligned with the sensibility,
perceptions of the subjects that consume them and social facts are able to
develop trends in an assertive way, thus managing to influence the formation of
opinions of individuals. With the arrival of the internet, information has become
increasingly available, thus enabling viable data collection as a process.
Previously, in magazines, books and other analogue sources, the collection was
123
slow, now with the Internet, the process became extremely fast, both for the
companies and for the consumer, generating a faster cycle of consumption and
demanding of the companies of the fashion a constant construction of novelties.
With this, large volumes of data are generated by users at all times on the
Internet making the ability to understand social demands and perceptions in the
context of fashion is very complex. As the years went by, the bases became
huge and the search for new information was as complicated as in the quest for
analog mode. As such, technologies like Big Data began to record this
information and help companies in their search processes, and thus assist in their
decision making. To do so, it becomes necessary to use the competitive
intelligence process along with Big Data as a technology tool. Thus, this
abstract used a bibliographical survey, with the intention of drawing attention to
future research that relates the use of information in fashion in front of the Big
Data, thus contributing to a scenario not worked by Information Science, as is
the case of the fashion universe.
A MEDIAÇÃO SOCIAL DA INFORMAÇÃO NA PRIMEIRA
BIBLIOTECA FEMINISTA DO BRASIL
THE SOCIAL MEDIATION OF INFORMATION IN THE FIRST
FEMINIST LIBRARY OF BRAZIL
Pôster / Poster
FIORAVANTI, Denise Belam.
Unesp / Marília
NASCIMENTO, Fransciso Arrais.
Unesp / Marília
ALMEIDA JUNIOR, Osvaldo Francisco.
Unesp / Marília
MARTÍNEZ-ÁVILA, Daniel.
Unesp / Marília
Ao adentrar aos espaços de preservação, acesso e disseminação da
informação se pode compreender que a história fora construída e narrada sob
124
um viés masculino amparado na binaridade de gênero imposta pela sociedade
que elegeu a preceitos heteronormativos alicerçados no patriarcado,
produzindo excluídos em uma relação de poder própria, onde nesse processo
de subjugação, incluem-se todos os seres cujo corpo é medido por seu valor de
uso, ‘corpos para o trabalho, a procriação, o cuidado e a manutenção da vida e
a produção do prazer alheio’, que também compõem a ampla esfera do
trabalho na qual está em jogo o que se faz para o outro por necessidade de
sobrevivência. Com isso, a Biblioteca Feminista Cora Coralina, inaugurada em
julho de 2015, na zona lesta da cidade de São Paulo – SP, apresentando um
acervo de 501 livros, artigos e teses sobre o feminismo e a situação da mulher
no mundo. Tal espaço emerge não apenas no contexto social como um
rompimento que permite que experiências vividas de forma tácita ou
dissimulada ganhassem visibilidade a partir de sua enunciação pública e que se
construam em signos de pertencimento a um grupo social (feminino), a uma
identidade (feminista), mas também como uma forma de subversão da norma
vigente que encarcera, limita e torna as memórias acerca do grupo estranho
subterrâneas. Segundo Almeida Junior (2015) nos apropriamos da informação
seja de maneira consciente ou inconscientemente a partir de nossa vivência e
de nossas relações com o mundo. A informação está sempre em processo de
construção, repassando intenções, desejos, interesses e valores. Logo, o espaço
da biblioteca feminista apresenta-se como alternativa de empoderamento frente
a lógica construída socialmente, contando com a participação das mulheres
que, a partir de suas próprias histórias, olhares e experiências, participaram de
oficinas de artes visuais e garantiram ao local um visual com destaque para a
promoção da autonomia feminina na apropriação de seu espaço, com isso, a
biblioteca procura também viabilizar a produção não apenas literária, mas
acadêmica e artística das mulheres em um processo de desconstrução do
patriarcado e de ressignificação do dispositivo de controle social construído
historicamente e que certifica os discursos que compõe a tessitura memorial.
When exploring the spaces of preservation, access, and dissemination
of information, one can see that there is a masculine bias in the construction and
narration of history. This bias is supported by a gender binarism that is imposed
by society and that works with heteronormative assumptions based on a
patriarchy that excludes individuals in a relationship of power. In this process of
subjugation, individuals' bodies are measured by their use value, e.g., 'bodies for
work, procreation, care, and maintenance of life, or for giving pleasure to others'
also showing that the need for survival is also at stake. Provided this, the
Feminist Library Cora Coralina, São Paulo city, opened in July 2015, including
a specialized collection of 501 books, articles and theses on feminism and the
situation of women in the world. Such a space emerges not only in a social
context but also as a rupture that allows tacit or dissimulated lived experiences
to gain visibility from their public enunciation and to be constructed upon signs
125
of belonging to a social group (women), to a feminist identity, but also as a form
of subversion of the prevailing norm that constrains, limits, and turns the
knowledge about the group into something strange. According to Almeida
Junior (2015) we appropriate information, either consciously or unconsciously,
from our lived experiences and our relationships with the world. Information is
always in the process of construction, transmitting intentions, desires, interests
and values. Thus, the space of the feminist library is an alternative of
empowerment against the dominant and socially constructed logic, including the
participation of women who, with their own stories, views, and experiences,
participate in workshops on visual arts workshops and provide a space for the
promotion of women's autonomy and the appropriation of their identity. In this
sense, the library also aims to promote women's academic and artistic literature
women in a process of deconstruction of patriarchy and reassignation of the
historically constructed social dispositives of control that justify the memory
disocurses.
ESTUDOS FEMINISTAS NO BRASIL: UMA ANÁLISE DA
PRODUÇÃO ACADÊMICA SOBRE O FEMINISMO NA BASE
DE DADOS SCOPUS NO PERÍODO 2007-2017
FEMINIST STUDIES IN BRAZIL: AN ANALYSIS OF
ACADEMIC PRODUCTION ON FEMINISM FOR THE PERIOD
2007-2017 IN THE SCOPUS DATABASE
Pôster / Poster
FIORAVANTI, Denise Belam.
Unesp / Marília
NASCIMENTO, Fransciso Arrais.
Unesp / Marília
MARTÍNEZ-ÁVILA, Daniel.
Unesp / Marília
A publicação de trabalhos em periódicos configura-se enquanto uma
variável de impacto no âmbito acadêmico. Logo, os trabalhos revisados por
pares são considerados elementos constitutivos do “Conhecimento Cientifico”.
Diante disso, objetivou-se compreender como o feminismo vem sendo
126
trabalhado pela comunidade cientifica brasileira. Para tanto em um primeiro
momento cartografou-se a produção cientifica desde uma perspectiva feminista
ou que utilize o feminismo enquanto objeto, tomando por fonte os artigos
indexados pela base de dados Scopus, sob o recorte cronológico de 11 anos
(2007-2017), utilizando-se o termo “Feminism”, para a recuperação de artigos
que apresentam o termo em seu título, palavras-chave e/ou resumo. Ressalta-se
que, o termo utilizado para busca fora inscrito em outro idioma por
compreender-se que a base de dados utiliza o inglês como idioma. Com isso, se
pode vislumbrar as principais vertentes da pesquisa acerca do feminismo, como
também visualizar como o mesmo vem sendo trabalhado nos mais diversos
campos de estudo, de forma a reconhecer o aspecto social presente na produção
do conhecimento. Compreende-se assim, que a produção sobre a temática
feminista está ligada aos movimentos sociais (Negro, Feminista, LGBT), e a
busca de equidade, em um cenário binário, onde o sujeito do sexo masculino,
exerce a função dominadora, para além dos ganhos políticos, econômicos e
culturais advindos das demandas de tais movimentos, que adentram a academia
e se consolidam de forma a auferir um maior espaço e com isso uma maior
visibilidade para a temática. Ressalta-se que, o crescimento de artigos indexados
pela base da dados analisada, com temática e/ou objeto de natureza feminista
coincide com o período histórico em que os movimentos sociais auferiram
ganhos no campo político, social, cultural e econômico. Logo, através de tal
analise, se pode vislumbrar como acontecem os processos históricos onde a
mulher é alocada em posições inferiores. Prova disso, os casos das Universidade
Federal do Rio Grande do Sul – UFRGS/Brasil e da Universidad Complutense
de Madrid/Espanha, onde identificou-se uma larga produção acerca da temática
impulsionada pelos movimentos sociais que auferem de forma singular espaços
democráticos nas instituições supracitadas, o que fora comprovado por meio da
larga produção e da própria atuação de tais instituições nos âmbitos do ensino,
da pesquisa e da extensão universitária.
The publication of journal articles is an important aspect of the
academia. Peer-reviewed papers are a fundamental aspect of the construction
"scientific knowledge". Thus, our objective was to understand how feminism
has been worked by the Brazilian scientific community. In our paper, we aim to
understand how feminism has been addressed by the Brazilian scientific
community. We mapped the scientific production on feminism and/or from a
feminist perspective. We selected the papers indexed by the Scopus database for
the period 2007-2017 that include the term "feminism" in their title, keywords,
or abstract. We searched the term "feminism" in English because of the
international scope of the Scopus database. We revealed the main characteristics
of the research on feminism, as well as how it has been addressed in the most
diverse fields of study, in order to highlight the social aspects that are present in
the production of knowledge. We understand that production on feminism is
127
strongly linked to social movements (black movements, feminism, LGBT…),
and the search for equality between men and women (in a world where man
plays a dominant role), and the political, economic, and cultural benefits that
such movements bring, that permeate the academia and are established in order
to gain a greater space and a greater visibility for the topic. The increasing of
papers on feminism indexed by Scopus allows to understand how historical
processes occur in relation to women, and the bibliometric approach allows a
graphical representation to study the production and organization of the
knowledge. We highlight the cases of the Universidad Federal do Rio Grande do
Sul - UFRGS, in Brazil, and the Universidad Complutense de Madrid, in Spain,
with a great scientific production on feminism, caused by the gain of democratic
spaces in these institutions.
DIPLOMÁTICA E ORGANIZAÇÃO DO CONHECIMENTO
DIPLOMATICS AND ARCHIVAL IDENTIFICATION IN
KNOWLEDGE ORGANIZATION
Pôster / Poster
FONSECA, Gabrieli Aparecida da.
Unesp / Marília
RODRIGUEZ, Sonia Maria Troitiño.
Unesp / Marília
O trabalho aqui relatado buscou refletir a relação entre Diplomática e
Identificação Documental e os benefícios que estas podem trazer para a
Organização do Conhecimento. Assim, caracteriza-se como uma revisão teórica,
na qual se apresenta um histórico das transformações ocorridas nos conceitos de
Diplomática e de documento, uma vez que tais mudanças ocorreram
concomitantemente. Perpassamos pela Diplomática Científica, Histórica,
Forense e Contemporânea compreendendo a relação de cada uma delas com a
falsificação, de modo que ao avançar de suas transformações essa relação se
torna cada vez menor, já que se volta ao documento arquivístico, o qual tem seu
enfoque na proveniência e organicidade. Buscou-se também, averiguar quais os
aspectos que influenciam a gênese e a contextualização dos documentos
arquivísticos na atualidade, considerando a influência das novas tecnologias
para a produção documental. O trabalho, que na verdade se trata de um recorte
teórico de uma dissertação de mestrado já defendida, teve como objetivo
128
principal, destacar a partir da evolução histórica dos conceitos da Diplomática e
Identificação Documental e suas relações teóricas e aplicacionais, a forma como
estas podem contribuir para a organização arquivística, e consequentemente,
para a Organização do Conhecimento. Considera-se então, que a Identificação
Documental, enquanto função arquivística voltada justamente para lidar com os
novos desafios lançados a produção documental, pode encontrar na diplomática
uma aliada. Contudo, para a eficácia dessa relação é essencial que a produção
documental compreenda as formalidades impostas pela diplomática. Além
disso, verificou-se que a Identificação Documental pode potencializar os efeitos
das funções arquivísticas que são posteriores a ela, o que é de suma importância
para que haja organização e acesso nos acervos arquivísticos, contribuindo
assim para a disseminação e Organização do Conhecimento. Em suma, conclui-
se com a investigação, que a Identificação Documental – função primordial para
realização de uma boa gestão e organização arquivística – recebera forte
influência do método diplomático – que evoluira ao longo do tempo e adapara-
se as necessidades contemporâneas -, o que as faz complementares. Sendo
assim, a aplicação das mesmas se faz muito próxima e voltada aos processos de
organização e verificação da autenticidade e veracidade documentais, aspecto
valoroso à Organização do Conhecimento, especialmente no contexto
sociocultural atual, no qual a produção de documentos e informação cresce
aceleradamente, o que pode prejudicar a verificação de autenticidade de tais
informações, prejudicando a construção do conhecimento e a forma como este é
organizado.
The work reported here sought a contribution between Diplomatics and
Archival Identification and the benefits that can be brought to the Knowledge
Organization. Thus, it is characterized as a theoretical revision, in which it
presents a history of the transformations occurred in the concepts of Diplomatics
and Documentation, once the changes are assumed concomitantly. We pass
through the Scientific, Historical, Forensic and Contemporary Diplomatics,
understanding the relation of each of them to the falsification, so that its will to
advance its relation becomes smaller and smaller, since it returns to the archival
record, which has its focus on provenience and organicity. It was also sought to
ascertain which processes influence the genesis and the contextualization of
records in current, considering new technologies for a documentary production.
The work, that actually is a theoretical recort of a masters thesis already
defended, has as main objective, highlighting parting the historical evolution of
concepts of Diplomatics and Archival Identification and yours theoretical and
applications relations, the form of this can be contribute to a archival
organization and consequently, for the Knowledge Organization. It is
considered, therefore, that Archival Identification, as an archival function turned
precisely to deal with the new challenges launched in a documentary
production, can find in the Diplomat an ally. In this sense, the relationship is
129
essential for a documentary production understood as formalities imposed by
the Diplomatics. In addition, it has been found that documentation can enhance
the archival functions that are subsequent to it, which is of paramount
importance for organizing and accessing archival services, thus contributing to
the dissemination and Knowledge Organization. In short, it concludes with a
documentary research - a primary function for good archival management and
organization - that has been strongly influenced by the diplomatics method - that
evolves over the long term and adapts to contemporary needs - complementary.
Therefore, the application of the same is very close and focused on the
processes of organization and verification of documentary authenticity and
veracity, an aspect valued to the Knowledge Organization, especially in the
sociocultural current context, in which the performance is an information
process. This information can be used as an evaluation information.
REDES SOCIAIS NO CONTEXTO DAS POLÍTICAS DE
INFORMAÇÃO: UM ESTUDO EXPLORATÓRIO
SOCIAL NETWORKS IN THE CONTEXT OF INFORMATION
POLICIES: AN EXPLORATORY STUDY
Pôster / Poster
FRANÇA, Maira Nani.
Unesp / Marília
O advento da internet favoreceu a explosão informacional, fenômeno
que a partir de 2010, ficou conhecido como big-data, ou seja, o grande volume,
variedade, velocidade e veracidade de dados gerados mundialmente. Dentre os
diversos canais de informação e comunicação favoráveis para geração, coleta,
transmissão, assimilação e uso desses dados, destacam-se as mídias sociais,
especificamente as redes sociais, utilizadas por aproximadamente 3,2 bilhões de
pessoas o que equivale a 42% da população mundial. Neste contexto, nossa
reflexão volta-se para o Estado, um agente que pertence a todos os cidadãos e
seus atos deveriam, por concepção, atender o interesse público de modo que
todos tenham direitos iguais. A ampliação do número de pessoas com
tecnologias, principalmente as embarcadas nos dispositivos móveis com acesso
a rede, tende a ser um terreno fértil para que o Estado possa se valer da internet
como um caminho para a inclusão social. A discussão aqui proposta alicerça-se
na interação entre temas como Estado, políticas públicas e atores e, as políticas
públicas de informação e tecnologia, tendo como objetivo fazer uma revisão das
políticas públicas de informação no contexto das redes no período de 1992 a
130
2016. Para tanto, utilizamos como procedimento metodológico a pesquisa
exploratória, de caráter qualitativo, de modo que fosse possível contemplar as
temáticas propostas (redes sociais x políticas públicas). Como resultado,
apresentamos as principais políticas que favoreceram a criação do "estado
informacional" e as políticas públicas de informação no Brasil, como a Lei de
Acesso a Informação (2011), o Marco Civil da Internet (2014), a Política de
Governança Digital (2014) e a Política Nacional de Dados Abertos (2016).
Conclui-se que mediante a fluidez e a mobilidade do mundo contemporâneo
torna-se cada vez mais inviável a elaboração de uma política pública que
contemple e coordene os usos reais da rede e o volume de descentralização dos
fluxos informacionais, na sociedade-rede da qual fazemos parte.
The advent of the internet furthered the information explosion, which
since 2010, became known as the big data, ie the great volume, velocity, variety
and veracity of the data generated worldwide. Among the several channels of
information and communication for generation, collection, transmission,
assimilation and use of these data, social media stands out, specifically social
networks, used by 3.2 billion people, that are equivalent to 42% of the world
population. In this context, our reflection turns to the State, an agent that
belongs to all citizens and their acts should, by design, meet the public interest
so that everyone has equal rights. The expansion of the number of people with
technology, especially those on mobile devices with access to the network, tends
to be a fertile ground for the State to use the Internet as a path to social
inclusion. The discussion proposed here is based on the interaction between
topics such as State, public policies and actors, and public information and
technology policies, with the objective of reviewing public information policies
in the context of networks from 1992 to 2016. To do so, we used as
methodological procedure the exploratory research, of a qualitative nature, so
that it was possible to contemplate the proposed themes (social networks x
public policies). As a result, we present the main policies that favored the
creation of the "informational state" and public information policies in Brazil,
such as the Access to Information Law (2011), the Civil Internet Framework
(2014), the Digital Governance Policy (2014) and the National Open Data
Policy (2016). It is concluded that through the fluidity and mobility of the
contemporary world it becomes increasingly unfeasible to devise a public policy
that contemplates and coordinates the real uses of the network and the volume
of decentralization of information flows in the network society of which we are
part of.
COMPUTAÇÃO EVOLUTIVA APLICADA AO MERCADO
FINANCEIRO: UM SISTEMA DE RECOMENDAÇÃO
ESTRATÉGICO PARA OS USUÁRIOS INICIANTES
131
EVOLUTIONARY COMPUTING APPLIED TO THE
FINANCIAL MARKET: A STRATEGIC RECOMMENDATION
SYSTEM FOR NEW USERS
Pôster / Poster
FRANKLIN, Benjamin Luiz.
UEL
Este trabalho aplica técnicas de computação evolutiva objetivando
extrair uma estratégia de atuação do mercado financeiro, ao abordar o fluxo de
informações de ativos como um problema sistêmico. Para isso, coletou-se dados
de ativos financeiros para extrair-lhes os pontos favoráveis de compra e venda,
para confrontá-los com o lucro gerado em suas transações, generalizando o
resultado ótimo, de forma a encontrar uma solução otimizada, uma estratégia de
ação. Os alertas de compra e venda, do melhor agente encontrado, são enviados
às mídias sociais digitais para oferecer um sistema de recomendação a
investidores iniciantes da bolsa de valores. Os resultados evidenciam a
possibilidade de utilizar a computação evolutiva como um sistema de
recomendações estratégicas para o mercado financeiro, disponibilizado
massivamente a investidores iniciantes. As implicações dessa possibilidade, no
entanto, convidam a um conjunto de novos trabalhos, que possam aumentar a
compreensão sobre o distanciamento entre o conhecimento estratégico,
abstraído algoritmicamente de um conjunto de dados, distante da abordagem
semântica, e o uso humano, cotidiano, da informação.
This work applies evolutionary computational techniques to extract a
strategy of action in the financial market, when approaching the flow of asset
information as a systemic rather than a financial problem. For this purpose, we
collected data on financial assets and sought to extract favorable purchase and
sale timing, based on their continuous movement. We then compared it with the
profit generated in their transactions, generalizing the optimal result through an
evolutionary algorithm, in order to find an optimized solution – an action
strategy. Buying and selling notifications, from the best agent found, are sent to
digital social media offering a recommendation system to stock market
investors. The results highlight the possibility of using evolutionary
computation as a system of strategic recommendations for the financial market,
which is widely available to beginner investors. We conclude that the
application of non-symbolic systems to extract knowledge from the database,
highlighting the financial system, presents a new range of challenges and
132
opportunities, in which knowledge itself, as a competitive differential, gains
new contours outside the semantic universe and ever more distant from ordinary
human understanding.
LINGUAGEM E VARIAÇÃO LINGUÍSTICA EM CIÊNCIA
COGNITIVA ENATIVA
LANGUAGE AND LINGUISTIC VARIATION IN ENACTIVE
COGNITIVE SCIENCE
Comunicação Oral / Oral Communication
FREITAS, Luciana de.
UFVJM
CARVALHO, Leonardo Lana de.
UFVJM
As ciências cognitivas são um corpo interdisciplinar voltado para o
estudo de fenômenos cognitivos. O entendimento da linguagem como processos
semióticos emergentes envolvidos na comunicação em sistemas sociais é o foco
deste trabalho que tem como objetivo conceptualizar a variação linguística a
partir da teoria da enação. O método usado é a análise conceitual, cujo
desenvolvimento remonta à tradição da filosofia analítica, filosofia da
linguagem mas também à linguística contemporânea. Como resultados
apontamos que, primeiramente, a linguagem é entendida como uma
característica da evolução desta espécie. Embora os primeiros humanos tenham
deixado registros de suas atividades linguísticas em pinturas rupestres, tais
desenhos representavam signos que cujo sentido original existia naquela
comunidade. Identificamos, a partir da teoria de Maturana e Varela, que o
sentido se encontra nas ações vivas, comunicativas, do corpo de um sistema
social que através delas se autoproduz. Estudos de campo revelam esta dinâmica
social da variação linguística. Um exemplo disso são os modos de falar do
nordestino, do mineiro ou do gaúcho que, além de permitir a comunicação entre
os indivíduos, mesmo longe dessas comunidades, é também algo que marca a
identidade dessas pessoas. Outro exemplo desse fenômeno é a linguagem usada
pelos falantes da região do Vale do Jequitinhonha mineiro. Situada numa região
próxima à divisa de Minas com os estados do Espírito Santo e da Bahia, os
133
moradores dessas comunidades apresentam uma linguagem bem diferenciada da
que é falada em outras regiões do estado. Além da questão geográfica, muitos
indivíduos dali pertencem a uma classe social que, ao longo da história, não
recebeu estudo suficiente para dominar a língua escrita e muito do que foi
aprendido, foi passado oralmente. Assim, ao dizerem “nubrina” (neblina),
“gavar” (gabar) ou “ventagem” (vantagem), essas pessoas reproduzem o que foi
aprendido na interação com outras pessoas que assim falavam. A partir da
ciência cognitiva enativa, entendemos que as variações de uma língua possuem
uma história evolutiva, variando em função do meio social e geográfica. As
interações sociais, ou acoplamentos de terceira ordem em Maturana e Varela,
podem criar as variações na linguagem. Os modos de falar não são assim obra
do acaso, mas estão ligados ao histórico de acoplamentos estruturais, aos lugares
de vivencia, aos grupos sociais aos quais os falantes pertencem. Destacamos que
a linguagem é algo que une as comunidades, que, por sua característica
autopoiética, vai passando essa linguagem para os indivíduos que chegam até
ela. De modo conclusivo, entendemos que as variações linguísticas podem ser
bem conceptualizadas pela teoria cognitiva enativa que aponta o conceito de
autopoiése como central para seu entendimento. Sistemas autopoiéticos são
sistemas abertos. Assim as perturbações de meios sócio-geográficos sobre
comunidades fazem com que muitas variações ocorram em seus processos
internos, como por exemplo no domínio linguístico. Como perspectivas
apontamos o aprofundamento dessa análise do processo de variação linguística
pela teoria enativa assim como o uso de resultados da modelagem e simulação
computacional baseada em Sistemas Complexos Multiagente para melhor
entendimento deste processo.
The cognitive sciences are an interdisciplinary area focused on the
study of cognitive phenomena. The understanding of language as emerging
semiotic processes involved in communication in social systems is the focus of
this work, which aims to conceptualize linguistic variation from the theory of
enaction. The method used is the conceptual analysis, whose development goes
back to the tradition of analytical philosophy, philosophy of language but also to
contemporary linguistics. As results, we point out that, firstly, human language
is understood as a characteristic of the evolution of this species. Although the
earliest humans left records of their linguistic activities in cave paintings, such
drawings represented signs whose original sense existed in that community.
From the Maturana and Varela theory, we identify that the meaning is found in
the living, communicative actions of the body of a social system that through
them is self-produced. Field studies reveal this social dynamics of linguistic
variation. An example of this is the ways of speaking of the Brazilian
Northeastern, Minas Gerais or Rio Grande do Sul, which, in addition to
allowing communication between individuals, even far from these communities,
is also something that marks the identity of these people. Another example of
134
this phenomenon is the language used by the speakers of the region of the
Jequitinhonha Valley of Minas Gerais. Located in a region near the border of
Minas with the states of Espírito Santo and Bahia, the residents of these
communities have a language very different from that spoken in other regions of
the state. Beyond the geographical localization, many individuals there belong
to a social class which, throughout history, has not received enough study to
master the written language and much of what has been learned, was passed
orally. Thus, by saying "nubrina" (mist), "gavar" (boasting) or "vantagem",
these people reproduce what was learned in the interaction with other people.
From the enative cognitive science, we understand that the variations of a
language have an evolutionary history, varying according to the social and
geographical environment. Social interactions, or third-order couplings in
Maturana and Varela, can create variations in language. The modes of speech
are not thus a work of caos, but they are linked to the history of structural
couplings, places of living, and social groups to which the speakers belong. We
emphasize that language is something that unites the communities, which,
because of its autopoietic characteristic, is passing this language to the
individuals that reach it. In conclusion, we understand that linguistic variations
can be well conceptualized by the enative cognitive theory that points to the
concept of autopoiesis as central to its understanding. Autopoietic systems are
open systems. Thus disturbances of socio-geographical means on communities
cause many variations to occur in their internal processes, as for example in the
linguistic domain. As perspectives we point out the deepening of this analysis of
the process of linguistic variation by the enative theory as well as the use of
results of the modeling and computational simulation based on Multiagent based
Complex Systems for a better understanding of this process.
PROBLEMAS DE COMPLEXIDADE ORGANIZADA: UM
ESTUDO A PARTIR DO PARADIGMA DA COMPLEXIDADE
PROBLEMS OF ORGANIZED COMPLEXITY: A STUDY FROM
THE PARADIGM OF COMPLEXITY
Pôster / Poster
FURLAN, Bruna Marcela.
Unesp / Marília
Partindo da perspectiva do Paradigma da Complexidade, pretendemos
investigar o papel desempenhado pela informação em sistemas complexos. O
problema que guiará a presente reflexão pode ser assim enunciado: Qual é o
135
papel da informação no entendimento de problemas complexos? Warren
Weaver em seu artigo Science of Complexity (1948) nos chama atenção para a
lacuna deixada pela ciência na resolução de problemas contemporâneos,
argumentando que existe uma diferença relevante entre problemas de
Simplicidade e os de Complexidade Desorganizada. Seguindo as trilhas de
Weaver, argumentamos que para compreender problemas da complexidade
devemos abandonar o paradigma redutor e disjuntor, por outro que associe, sem
reduzir, visões de mundo através do Paradigma da Complexidade. O Paradigma
da Complexidade abarca a perspectiva de um mundo sistêmico, constituído de
múltiplos elementos estruturados de modo funcional, elementos estes cuja
interação pode ter resultados emergentes, hologramáticos, auto-organizados e
informacionais. A emergência aponta que há perda de propriedades ao isolar as
partes. A interação da parte com o todo possibilita a geração de propriedades
que não existem quando isoladas, sendo mais que a soma das partes, aquilo que
sobressai da relação entre as partes com o todo. O princípio hologramático
indica que, assim como em um holograma, cada parte carrega a informação do
todo e simultaneamente participa dele, ou seja, a parte está no todo e o todo está
na parte. O conceito de auto-organização abarca as dinâmicas de interação ou
conflito entre elementos distintos, sem supervisão determinante, que podem
resultar na estruturação, reestruturação ou quebra de um sistema existente.
Argumentamos também que a informação, compreendida como dados
organizados dinamicamente de modo funcional, podem auxiliar a explicitação
da natureza de problemas da complexidade organizada. As redes informacionais
são essenciais para a compreensão de sistemas complexos que utilizam e
produzem informação disponível no ambiente, permitindo a detecção de novas
formas organizativas que mantêm a funcionalidade do sistema.
From the perspective of the Paradigm of Complexity, we intend to
investigate the role developed by information in complex systems. The problem
that will guide the present reflection may be thus posed: which is the role of
information on the understanding of complex problems? Warren Weaver in his
paper Science of Complexity (1948) call our attention to the gap left by science
in the resolution of contemporary problems, arguing that there is a relevant
difference between problems of Simplicity and of Disorganized Complexity.
Following the trails of Weaver, we argue that to understand problems of
complexity we must abandon the reductionist and disjunctionist paradigm, to
another one that associates, without reduction, worldviews through the
Paradigm of Complexity. The Paradigm of Complexity covers the perspective of
a systemic world, constituted by multiple elements structured in a functional
way, elements whose interactions may have emergent, hologrammatic, self-
organized and informational results. The emergence points out that there is loss
of properties when isolating the parts. The interaction of the part with the whole
enables the generation of properties that do not exist when isolated, being more
136
than the sum of its parts, that which excels from the relation of the parts with the
whole. The hologrammatic principle indicates that, as in a hologram, each part
carries the information of the whole and simultaneously participates on it, that
is, the part is in the whole and the whole is in the part. The concept of self-
organization covers the dynamics of interaction or conflict between isolated
elements, with no determinant supervision, which may result on the structuring,
restructuring or break of an existing system. We also argue that information,
understood as data dynamically organized in a functional way, may help to
explicit the nature of problems of organized complexity. The informational
networks are essential to the comprehension of complex systems that use and
produce information available in the environment, allowing for the detection of
new organizational forms which maintain the system’s functionality.
O CONTEXTO DA PRODUÇÃO CIENTÍFICA DE BIG DATA:
ANÁLISE CIENTOMÉTRICA
THE CONTEXT OF BIG DATA SCIENTIFIC PRODUCTION:
SCIENTOMETRIC ANALYSIS
Comunicação Oral / Oral Communication
GABRIEL FILHO, René Faustino.
UFRGS
OLIVEIRA, Ely Francina Tannuri de.
Unesp / Marília
BUFREM, Leilah Santiago.
UFPR, UFPE
CASTANHA, Rafael Gutierres.
Unesp / Marília
A diversidade, a geração e o processamento de grande quantidade de
dados disponíveis digitalmente são características associadas ao fenômeno Big
Data, que despontou, mais significativamente, a partir do início do século XXI,
com o crescimento exponencial da quantidade de dispositivos e de usuários
conectados. Big Data consiste primariamente de conjuntos de dados,
137
caracterizados pelo volume, variedade e velocidade (3V), cuja organização e
gerenciamento demandam arquiteturas escaláveis para que os processos de
armazenamento, manipulação e análise sejam eficientes. A questão desta
pesquisa assim se explicita: quais as áreas e subáreas e quais as questões sobre o
Big Data, enquanto objeto científico, estão sendo mencionadas em artigos
científicos, no período de janeiro de 2016 a dezembro de 2017 registrados nos
periódicos na base Scopus, levando em consideração as diferentes áreas do
conhecimento? A pesquisa tem como objetivo geral identificar a ênfase dada a
artigos sobre Big Data, bem como em quais áreas do conhecimento eles se
destacam. Analisa ainda o perfil das publicações periódicas que mais publicam
sobre Big Data, utilizando-se procedimentos cientométricos. Justifica-se pela
necessidade de analisar este fenômeno nas diversas áreas do conhecimento e
como tem se comportado a dinâmica dos estudos científicos sobre a temática em
uma perspectiva sincrônica, em outras áreas, além da Ciência da Computação.
Como procedimento de pesquisa, em 17 de março de 2018, consultou-se a base
de dados Scopus, com o termo de busca “Big Data”, presente na tipologia
artigos, em seus títulos, resumos e palavras-chave, publicados de 2016 a 1017.
Como resultado, foram encontrados 6.941 artigos publicados, sendo que 3.180
deles eram do ano de 2016 e 3.761 do ano de 2017, verificando-se um
acréscimo de 15,4% de um ano para outro. Desse total de artigos, somente 407
(5,9%) estão em periódicos open access, ou seja, uma parcela grande dos artigos
não está disponibilizada universalmente. Pretende-se que este estudo se preste a
subsidiar políticas de pesquisa sobre o tema. Como resultado da pesquisa,
observa-se que o Big Data tem uma forte relação com a Ciência da Computação
e Engenharia, entretanto a área de Ciências Sociais é a terceira com maior
publicação sobre o tema. Das revistas, surpreende-se que o Boletin Técnico e a
Revista de la Facultad de Ingenieria foram as que mais publicaram sobre o tema,
com 156 e 121 artigos respectivamente, ambas da Venezuela, relacionadas às
áreas de engenharia civil e ciências da terra e planetária. Dentre os países mais
produtivos destacam-se a China com 2.246 (32,4%) e os Estados Unidos com
1.732 (25,0%). Nas temáticas, destacam-se data mining, armazenamento digital,
processamento nas nuvens, gerenciamento da informação, sistemas de
computação distribuídos, inteligência artificial e aprendizagem de sistemas.
Conforme resultados preliminares do estudo, destaca-se a hegemonia das
ciências exatas no tema, além de ciências sociais aplicadas, medicina e ciências
da terra.
The diversity, generation and processing of large amounts of digitally
available data are characteristics associated with the Big Data phenomenon,
which emerged most significantly from the beginning of the 21st century with
the exponential growth in the number of devices and connected users. Big Data
consists primarily of data sets, characterized by volume, variety and velocity
(3V), whose organization and management require scalable architectures for
138
efficient storage, manipulation, and analysis processes. The question of this
research is, in this context, disclosed: which areas and subareas and which
questions about the Big Data as a scientific object are being mentioned in
scientific articles from January 2016 to December 2017 registered in the
journals in the Scopus database, taking into account the different areas of
knowledge? The general objective of the research is to identify the prominence
given to articles on Big Data, as well as in which areas of knowledge they stand
out. It also analyzes the profile of the journals that publish more papers on the
theme Big Data, using scientometric procedures. It is justified by the need to
analyze this phenomenon in the various areas of knowledge and how the
dynamics of scientific studies on the subject have behaved in a synchronic
perspective in areas other than Computer Science. As a research procedure, on
March 17, 2018, the Scopus database was searched, with the search term "Big
Data", present in the typology articles, in their titles, abstracts and keywords,
published from 2016 to 2017. As a result, 6,941 published articles were found,
of which 3,180 were from 2016 and 3,761 from 2017, an increase of 15.4%
from one year to the next. Of this total of papers, only 407 (5.9%) are in open
access journals, i.e., a large number of these articles is not universally available.
This study intends to support research policies on the subject. As a result of the
research, it is observed that Big Data has a strong relation with Computer
Science and Engineering, however the area of Social Sciences is ranked third in
number of publications on the subject. From the journals, it is surprising that the
Boletin Técnico and the Revista de la Facultad de Ingenieria were the ones with
more publications on the subject, with 156 and 121 articles respectively, both
from Venezuela, related to the areas of civil engineering and earth and planetary
sciences. Among the most productive countries are China with 2,246 (32.4%)
and the United States with 1,732 (25.0%). Data mining, digital storage, cloud
computing, information management, distributed computing systems, artificial
intelligence, and systems learning are among the topics. According to
preliminary results of the study, the hegemony of the exact sciences in the
subject, as well as applied social sciences, medicine and earth sciences stands
out.
ÉTICA INFORMACIONAL, RESPONSABILIDADE SOCIAL E
MEDIAÇÃO DA INFORMAÇÃO: INTERRELAÇÕES
INFORMATION ETHICS, SOCIAL RESPONSIBILITY AND
MEDIATION OF INFORMATION: INTERRELATIONS
Pôster / Poster
GAIA, André Luis Caçula.
139
UEL
SANTOS NETO, João Arlindo.
UEL, Unesp / Marília
BORTOLIN, Sueli.
UEL
Discute a ética informacional, a responsabilidade social, e a mediação
da informação a partir de uma revisão de literatura. Tem como objetivo refletir a
respeito da mediação da informação, vinculando-a à sociedade, enfocando
aspectos relacionados à responsabilidade social e a ética informacional. A
pesquisa foi desenvolvida com base na literatura especializada da área, de
caráter teórico e bibliográfico com o intuito de estabelecer uma interrelação
entre os temas. De maneira empírica, a mediação da informação é entendida
apenas como vinculada ao Serviço de Referência e Informação ou, de forma
mais específica, aos espaços e ações que visam o atendimento ao usuário. Ao se
pensar desta maneira, a preocupação com a ética informacional e a
responsabilidade social acaba sendo lembrada somente nos serviços
informacionais em que o usuário está presente, física ou remotamente. No
entanto, defende-se que a mediação está presente nos fazeres do profissional da
informação, logo a ética perpassa os processos e práticas informacionais. Em
algumas ações, ela está presente de forma implícita, muito embora dirigindo e
norteando todas as atividades que são desenvolvidas. Sendo assim, discute-se
como o bibliotecário posiciona-se frente ao seu papel na sociedade aplicando a
ética informacional em seus fazeres. No âmbito dos equipamentos
informacionais, é cada vez mais necessária à presença de um bibliotecário. No
entanto, é na ambiência das bibliotecas públicas, que esses profissionais têm
uma missão e responsabilidade perante a sociedade. Esses espaços precisam ter
um olhar atento àqueles que estão à margem da sociedade. O Brasil é detentor
de uma taxa elevada de analfabetismo, por isso, é de fundamental importância o
papel das bibliotecas públicas e das políticas públicas de desenvolvimento de
incentivo a leitura para que sua comunidade possa ampliar o senso crítico e o
aprendizado. Cabe à biblioteca pública oferecer a sua comunidade programas de
extensão e melhoramento da educação. Quanto ao fazer do bibliotecário nas
unidades escolares, questionamos se realmente os mediadores de leitura são
éticos no momento da mediação e se eles permitem ao leitor ampliar suas
possibilidades de escolha. Em síntese, a ética informacional e a responsabilidade
social na mediação da informação fazem com que a imagem do profissional da
informação seja melhor percebida e, também, mais valorizada. Com base nesses
140
pressupostos, considera-se estes elementos como imprescindíveis na mediação
da informação e, portanto, constituindo-se como uma das principais
preocupações do profissional da informação, independente do equipamento
informacional ou ambiência em que atua, dos suportes com os quais lida e das
inúmeras linguagens que utiliza para mediar informação e conhecimento. Os
estudos sobre mediação da informação ainda passarão por constantes pesquisas,
visto que a sociedade precisa de ativos tanto nas unidades de informação quanto
no ciberespaço.
It discusses informational ethics, social responsibility, and mediation of
information from a literature review. It aims to reflect on the mediation of
information, linking it to society, focusing on aspects related to social
responsibility and informational ethics. The research was developed based on
the specialized literature of the area, with a theoretical and bibliographic
character in order to establish an interrelation between the themes. In an
empirical way, the mediation of information is understood only as linked to the
Reference and Information Service or, more specifically, to the spaces and
actions that aim to serve the user. When thinking in this way, the concern with
informational ethics and social responsibility ends up being remembered only in
the informational services in which the user is present, physically or remotely.
However, it is argued that mediation is present in the work of the information
professional, so ethics permeates informational processes and practices. In some
actions, it is implicitly present, even though it directs and guides all activities
that are developed. Thus, it is discussed how the librarian positions himself in
front of his role in society applying informational ethics in his actions. In the
field of information equipment, it is increasingly necessary to have a librarian.
However, it is in the ambit of public libraries that these professionals have a
mission and responsibility towards society. These spaces need to keep a close
eye on those who are on the margins of society. Brazil has a high rate of
illiteracy, so the role of public libraries and public development policies to
encourage reading is of fundamental importance so that their community can
increase their critical sense and learning. It is up to the public library to offer its
community programs of extension and improvement of education. As for the
librarian's doing in school units, we question whether reading mediators are
ethical at the time of mediation and whether they allow the reader to broaden
their possibilities of choice. In summary, informational ethics and social
responsibility in mediation of information make the image of the information
professional better perceived and valued. Based on these assumptions, these
elements are considered as essential in the mediation of information and,
therefore, being one of the main concerns of the information professional,
regardless of the information equipment or environment in which it operates, of
the media with which it deals and of the many languages it uses to mediate
information and knowledge. Studies on mediation of information will still go
141
through constant research, since society needs assets both in information units
and in cyberspace.
PÓS-MODERNIDADE, CAPITALISMO E CONHECIMENTO:
UMA ANÁLISE CRÍTICA
POSTMODERNITY, CAPITALISM, AND KNOWLEDGE: A
CRITICAL ANALYSIS
Pôster / Poster
GOMES, Luciana.
Unesp / Marília
MARTÍNEZ-ÁVILA, Daniel.
Unesp / Marília
VALENTIM, Marta Lígia Pomim.
Unesp / Marília
O pensamento iluminista ao assumir à centralidade no desenvolvimento
científico ocupado anteriormente pela religião buscou a razão em detrimento à
fé apostando na Ciência toda sua racionalidade. Nesse contexto, ocorre o embate
entre Modernidade e Capitalismo, que se apropriou de novas possibilidades de
conhecimento gerado em uma nova perspectiva de Ciência, para legitimar sua
relação com a natureza e com o homem. As críticas feitas à Modernidade e a
discussão acerca de sua superação pela Pós-Modernidade revelam os problemas
advindos do modo de produção e de suas novas configurações, a proposição de
abandono o processo histórico e a liquidez das relações atendem aos anseios
dessa nova dinâmica, os meios de comunicação trazem a necessidade
permanente de novas informações com a fragmentação do tempo e uma série de
presentes perpétuos (JAMESON 1984). Diante do desenvolvimento tecnológico
a vida se torna vitrine exposta em redes sociais, o momento a ser vivido é o
presente, em grande medida exposto pelas redes, gerando a fragmentação e a
impossibilidade de projetos emancipatórios ou de reconhecimento de
pertencimento do indivíduo. A promessa pós-moderna de desenvolvimento
ilimitado e fim das fronteiras reforça a lógica individualistas e impossibilita o
desenvolvimento de identidade enquanto sujeitos coletivos, negando ao homem
142
a condição de sujeito histórico. No discurso pós-moderno, destacado por
Boaventura (1999), por meio de três perplexidades, ocorre à desvalorização da
economia em detrimento do político, social e cultural, no enfraquecimento dos
Estados com a internacionalização da economia e o indivíduo como
protagonista de mudanças. Neste trabalho, pretende-se analisar a relação entre a
modernidade e a pós-modernidade e suas contribuições e fracassos. Diante da
perspectiva dialética busca-se compreender que as perspectivas deste novo
paradigma são de grande valor e necessários ao debate, entretanto, as relações
de trabalho e acumulação capitalista permanecem dominantes, bem como o
consumo, mesmo diante do esgotamento de recursos naturais. A
responsabilização individual tende a valorizar o discurso da meritocracia e a
permanência do conceito de classes se torna essencial para a compreensão e o
rompimento com as relações sociais e políticas vigentes.
When Enlightenment's thought assumed the main role in the
development of knowledge, a role previously played by religion, it privileged
reason over faith by putting all rationality on science. It is in this context in
which the clash between Modernity and capitalism appears, as capitalism
appropriated the new possibilities of knowledge produced by the new
perspective of science in order to legitimize its relationship with nature and
man. The critiques made to Modernity and the discussion about its overcoming
by postmodernity reveal the problems caused by the mode of production and its
new configurations, the proposed end of the historical approach, and the
liquidity of the relations meeting the goals of this new dynamics, as media bring
the permanent need for new information with the fragmentation of time and a
series of perpetual gifts (JAMESON 1984). Due to the new technologies, life is
exposed in social networks, focusing on the present moment that is exposed by
in a fragmented way, precluding emancipatory projects and the association of
individuals for instance by class. The postmodern promise of unlimited
development and the end of frontiers reinforces the individualistic logic and
precludes proposals for the development of identities as collective subjects
while denying man the status of a historical subject. In the postmodern
discourse, according to Boaventura (1999), there are three perplexities: the
devaluation of the economical dimension to the detriment of the political, social,
and cultural aspects; the weakening of the states with the internationalization of
the economy; and the individual as the protagonist of changes. In this context,
we aim to analyze the relationships between modernity and postmodernity as
well as its contributions and failures. Based on a dialectic perspective, we aim to
find out if the perspectives of the new paradigm are indeed of great value and
worthy of discussion, while indeed capitalist labor relations, accumulation of
capital, and consumption remain dominant even at the doors of the depletion of
natural resources. While individual accountability tends to value the discourse
of meritocracy, the concept of classes becomes essential in understanding and
breaking with the existing social and political relations.
143
GOVERNANÇA PÚBLICA NO CONTEXTO DO BIG DATA:
REFLEXÕES SOBRE GOVERNO BRASILEIRO E ANÁLISE DE
DADOS
PUBLIC GOVERNANCE IN THE CONTEXT OF BIG DATA:
REFLECTIONS ABOUT BRAZILIAN GOVERNMENT E DATA
ANALYSIS
Pôster / Poster
GROSSI, Angela Maria.
Unesp / Marília
LOPES, Gabriel Henrique de Oliveira.
Unesp / Marília
O uso das Tecnologias da Informação e Comunicação no controle,
produção e armazenamento informacionais e a assunção do direito à informação
pública por parte dos governos culminam no esforço dos Estados em
regulamentar mecanismos de transparência da administração pública como
imperativos à democracia liberal. Nesse contexto, ao regulamentar a
disponibilização informativa, os Estados oportunizaram a formação do que se
denominou e-government, responsável pelo oferecimento de serviços e
informações do Estado, a partir do uso das tecnologias da informação, às
empresas, indústrias e cidadãos, ampliando o relacionamento entre o poder
público e a população. Concomitante a esse processo, o caráter ubíquo e a
sofisticação das tecnologias e das redes levaram à disseminação da capacidade
de conexão e de relacionamento dos sujeitos sociais com o mundo online.
Segundo relatório de 2016 do Centro Regional de Estudos para o
Desenvolvimento da Sociedade da Informação, órgão ligado ao Comitê Gestor
da Internet, os números relacionados ao acesso às tecnologias e redes elevaram-
se, ainda que timidamente, nos últimos anos, uma vez que 54% dos domicílios
brasileiros possuem acesso à internet e 68% da população é usuária da grande
rede. Como consequência, o número sujeitos conectados elevou a quantidade de
informações produzidas por usuários, o que contribui para a geração de um
conjunto de datasets cujo volume é superior à capacidade que os bancos de
gerenciamento de dados possuem de processá-los, analisá-los e capturá-los,
dando origem ao fenômeno do Big Data. Nesse contexto, diante da necessidade
144
de intensificação das políticas de participação social e de acesso à informação, e
da importância que as tecnologias e a rede ganharam no cotidiano do cidadão, o
presente trabalho discute sobre as possibilidades de exploração do Big Data pela
governança pública. A reflexão pauta-se no exame conceitual da análise de
grandes volumes de dados com fim social – e não comercial –, atrelando o
desenvolvimento do Big Data com a expansão do alcance da racionalização do
poder público. O estudo, ademais, pondera sobre a possibilidade de, por meio
de mineração e análise dos dados, o poder público brasileiro pode obter
diagnósticos sociais que auxiliem na identificação de demandas históricas e
problemas estruturais; compreensão dos aspectos culturais ou sociais de dadas
regiões; melhoria da gestão administrativa e de recursos públicos; na
antecipação e preparação para desastres naturais e fenômenos sociais; execução
de ações de planejamento orçamentário e legislativo; e engajamento de cidadãos
à política.
The use of Information and Communication Technologies in the
information’s control, production and storage and the assumption of the public
information right by governments culminates in State efforts to transparency
regulation in the liberal democracy. In this way, the State opportunized
development of e-government, responsible for the public information services
attend to companies, industries and citizens, increasing the relationship between
public power and population. Concomitant with this process, the ubiquity and
sophistication of communication technologies and networks have increased the
conectivity and relationship of people with online world. According the 2016
annual report of the Regional Center for Studies on Society Development,
Information, linked to Brazilian Internet Steering Committee, the number of
network access in Brazil has growth, in recente years: 54% of brazilian
households have access to the Internet and 68% of the population use internet.
As a consequence, the number of connected people raises quantity of
information produced by users, which contribute to a generation of datasets
whose volume is superior to the processing and analysis capacity of databases,
generating the Big Data phenomenon. Face of the necessity of the creation of
information acess and social participation policies, and the network technologies
importance for citizens lifes, this work discuss about Big Data exploration
possibilities by public governance. This reflection is based on conceptual
examination of large volumes of data analyzes with a social purpose - not
commercial - linking the development of Big Data with the expansion of the
racionalization scope of public power. The study, in addition, ponders about the
possibility that, through mining and data analysis, the Brazilian government
reach social diagnoses that help the identification of historical demands and
structural problems; the understanding of cultural or social aspects of differents
regions; the improving administrative management of public resources; the
anticipation and preparation for natural disasters and social phenomena; the
145
execution of budgetary and legislative planning actions; and engaging citizens
in politics.
BIG DATA, FIXAÇÃO DE CRENÇAS E FAKE NEWS: A
CAMPANHA DE DIFAMAÇÃO CONTRA MARIELLE FRANCO
BIG DATA, FIXATION OF BELIEFS AND FAKE NEWS: THE
DEFAMATION CAMPAIGN AGAINST MARIELLE FRANCO
Comunicação Oral / Oral Communication
GUARDA, Rebeka Figueiredo da.
USP
ROMANINI, Anderson Vinicius.
USP
Nos últimos anos, o avanço das tecnologias da informação tem gerado
debates sobre as implicações do uso do grande volume de informações que
circulam na internet como matéria-prima para grupos interessados em
influenciar a ação humana. O caso mais recente veio à tona em março de 2018,
com a revelação de que a Cambridge Analytica, empresa responsável pela
campanha eleitoral do presidente dos Estados Unidos Donald Trump, usou
dados roubados de 50 milhões de usuários do Facebook para traçar perfis
psicológicos e moldar mensagens personalizadas, capazes de influenciar o
comportamento de eleitores. Guardadas as devidas particularidades do caso, a
eleição de Trump parece ter ao menos uma semelhança com a onda de boatos
sobre a vereadora brasileira Marielle Franco: o uso de Big Data. Em outras
palavras, a campanha de difamação contra Marielle perpetrada na internet após a
sua morte ocorreu de forma tão rápida e eficaz que o fenômeno sugere o
emprego de quantidades massivas de dados (Big Data) como parte do plano para
espalhar notícias falsas sobre ela. Nesse sentido, nossa proposta é discutir a
hipótese de que as estratégias de criação e divulgação de fake news estão
concatenadas com ferramentas que usam o Big Data, o que indicaria a ação
deliberada de grupos interessados nas consequências oriundas da difamação da
vereadora. Para isso, analisaremos a dinâmica de evolução da opinião pública no
caso Marielle sob uma perspectiva semiótica, considerando a posição ocupada
pela vereadora no debate político, as circunstâncias de seu assassinato, os
depoimentos de autoridades públicas sobre sua morte e o conteúdo das notícias
falsas espalhadas sobre ela. A discussão será realizada admitindo-se que
146
plataformas como Google e Facebook usam Big Data e complexos algoritmos
para filtrar e personalizar a informação que chega a cada usuário, e que esse
mecanismo está programado para oferecer conteúdos semelhantes às crenças e
opiniões dos usuários. Apresentaremos, ainda, os métodos de fixação de crenças
propostos pelo filósofo, lógico e semiótico Charles S. Peirce, explicitando-os a
partir das etapas do caso Marielle. Em seguida, detalharemos a dinâmica de
notícias e boatos que se espalharam sobre a vereadora com base em dados
coletados pelo Monitor do Debate Político no Meio Digital, projeto do Grupo de
Pesquisa em Políticas Públicas para o Acesso a Informação da USP. Por fim,
faremos uma reflexão sobre as possíveis implicações políticas do uso de Big
Data em estratégias de fake news no atual cenário brasileiro e suas
consequências na busca pela verdade.
In recent years, the advancement of information technologies has
generated debates about the implications of using the large amount of
information circulating on the Internet as a raw material for groups interested in
influencing human action. The latest case came to light in March 2018 with the
revelation that Cambridge Analytica, the company responsible for US President
Donald Trump's election campaign, used stolen data from 50 million Facebook
users to chart psychological profiles and shape personalized messages that can
influence the behavior of voters. Given the particular circumstances of the case,
Trump's election seems to have at least a resemblance to the tide of rumors
about Brazilian councilwoman Marielle Franco: the use of Big Data. In other
words, the defamation campaign against Marielle perpetrated on the internet
after his death occurred so quickly and effectively that the phenomenon suggests
the use of massive amounts of data (Big Data) as part of the plan to spread false
news about it. In this sense, our proposal is to discuss the hypothesis that fake
news creation and dissemination strategies are linked to tools that use Big Data,
which would indicate the deliberate action of groups interested in the
consequences of the councilor's defamation. For this, we will analyze the
evolutionary dynamics of public opinion in the Marielle case from a semiotic
perspective, considering the position occupied by the councilwoman in the
political debate, the circumstances of her murder, the statements of public
authorities about her death and the content of the scattered false news about her.
The discussion will take place assuming that platforms like Google and
Facebook use Big Data and complex algorithms to filter and customize the
information that reaches each user, and that this mechanism is programmed to
offer content similar to the beliefs and opinions of users. We will present the
methods of establishing beliefs proposed by the philosopher, logical and
semiotic Charles S. Peirce, explaining them from the stages of the Marielle case.
Next, we will detail the dynamics of news and rumors that have spread about the
councilwoman based on data collected by the Monitor of the Political Debate in
the Digital Environment, a project of the Research Group on Public Policies for
147
Access to Information at USP. Finally, we will reflect on the possible political
implications of using Big Data in fake news strategies in the current Brazilian
scenario and its consequences in the search for truth.
A GESTÃO, A PRESERVAÇÃO E O ACESSO DE
INFORMAÇÃO EM AMBIENTES QUBITS
THE MANAGEMENT, PRESERVATION AND ACCESS TO
INFORMATION IN ENVIRONMENTS QUBITS
Pôster / Poster
HOTT, Daniela Francescutti Martins.
UnB
OLIVEIRA, Laís Pereira de.
UFG
Discorre sobre a gestão, a preservação e o acesso de informação em
ambientes qubits. Sabe-se que a base da informação processada pelos
computadores largamente utilizados – o bit – representa a menor unidade de
dados que pode ser armazenada ou transmitida. Já os computadores quânticos
trabalham com qubits, que seguem os parâmetros da mecânica quântica, ramo
da Física que trata das dimensões próximas ou abaixo da escala atômica. Por
conta disso, esses equipamentos podem realizar simultaneamente uma
quantidade muito maior de cálculos. O presente estudo objetiva lançar
discussões em torno das políticas de gestão, de preservação e de acesso à
informação arquivística em ambientes qubits. Parte-se da hipótese que algumas
iniciativas têm sido lançadas em prol do trato documental na perspectiva do big
data, realidade que avança sobre bibliotecas, arquivos e outros centros de
informação, promovendo também novas interlocuções dos profissionais da área
de informação, sobretudo os arquivistas. Em termos específicos, a pesquisa
buscou contextualizar as aplicações dessas diretrizes em experiências
internacionais e nacionais. Justifica-se pela necessidade de ampliar o arsenal
teórico em âmbito arquivístico, traçando discussões que contemplem a realidade
dos big data. Em termos práticos a investigação pode evidenciar para os
profissionais pesquisados a relevância de se pensar a nova dinâmica para o
documento arquivístico e a necessidade de revisitar e aperfeiçoar práticas de
trabalho. Metodologicamente consiste em pesquisa exploratório-descritiva, de
abordagem qualitativa. Constitui revisão de literatura desenvolvida mediante
148
pesquisa bibliográfica envolvendo: artigos de periódicos, anais de eventos e
reportagens em portais especializados de notícias. Contempla discussão tendo
por base o aspecto da produção, da gestão, da preservação e do acesso de
documentos arquivísticos digitais em sistemas experimentais, interativos e
dinâmicos, fundamentada ainda pelas respostas da coleta de uma amostra de
uma pesquisa em desenvolvimento. Os resultados indicam a necessidade de
ampliação de debates na construção de políticas de informação trazendo
benefícios para a sociedade e instituições públicas e empresas privadas.
Discusses the management, preservation and access of information in
qubits environments. It is known that the basis of the information processed by
the widely used computers – the bit – represents the smallest unit of data that
can be stored or transmitted. Yet, the quantum computers work with qubits,
which follow the parameters of quantum mechanics, the branch of physics that
deals with dimensions near or below the atomic scale. Because of this, these
equipments can simultaneously perform a much larger number of calculations.
Therefore, the present study aims to discuss management, preservation and
access policies to archival information in qubits environments. The hypothesis is
that some initiatives have been to set in favor of documentary treatment from
the perspective of the big data, a reality that advances on libraries, archives and
other information centers, also promoting new interlocutions of the
professionals of the information area, especially the archivists. In specific terms,
the research sought to contextualize the applications of these guidelines in
international and national experiences. It is justified by the need to expand the
theoretical arsenal in archival scope, with discussions that contemplate the
reality of big data. In practical terms, the research can highlight for the
professionals researched the relevance of thinking about the new dynamics for
the archival document and the need to revisit and improve work practices.
Methodologically it consists of exploratory-descriptive research, of qualitative
approach. It is a review of literature developed through bibliographic research
involving: information science journals, information science conference
proceedings and information science reports in online websites. It includes
discussion based on the aspect of production, management, preservation and
access of digital archival documents in experimental, interactive and dynamic
systems, based on the answers of the collect of a sample of a research in
development. The results indicate the need to broaden the debates in the
construction of information policies bringing benefits to society and public
institutions and private companies.
RESTRIÇÕES DE ACESSO E DE ACESSIBILIDADE EM
AMBIENTES WEB PARA PESSOAS COM DEFICIÊNCIA
149
RESTRICTED ACCESS AND ACCESSIBILITY IN WEB
ENVIRONMENTS FOR DISABLED PERSON
Comunicação Oral / Oral Communication
HOTT, Daniela Francescutti Martins.
UnB
RODRIGUES, Georgete Medleg.
UnB
É inegável a revolução que a Internet causou na promoção do acesso à
informação em todos os segmentos da sociedade. O conceito de acessibilidade
tem se expandido para outras áreas relacionadas à promoção de qualidade de
vida para todas as pessoas. Acessibilidade refere-se, também, a garantir que
todas as pessoas tenham acesso à informação e à comunicação. A acessibilidade
na Web pressupõe que os sites e portais sejam projetados de modo que todas as
pessoas possam perceber, entender, navegar e interagir de maneira efetiva com
as páginas. Mas será que a Internet é realmente um espaço democrático e que
alcança a todos? Será que os sites são desenvolvidos levando-se em
consideração o conceito de acessibilidade? A democratização do acesso à dados
digitais em diversos formatos que circulam na internet, ou seja, Big Data têm
sido tema recorrente no cenário mundial, e neste contexto discussões referentes
à acessibilidade direcionadas para pessoas com deficiência parece ser algo
primordial e coerente com as questões de acesso às informações digitas. O
presente estudo, desdobramento de um dos objetivos específicos do projeto de
doutorado em andamento, pretende identificar os marcos regulatórios de
inclusão e de restrições de acesso e de acessibilidade em ambientes web para
pessoas com deficiência. A metodologia utilizada é de caráter qualitativo, sendo
a pesquisa exploratória, visto que partiu dos estudos da Ciência da Informação,
do Profissional da Informação, da Acessibilidade e da Lei de Acesso às
Informações e do Big Data, para estabelecer um elo entre tais conceitos. Como
resultado apresenta e descreve a atuação do profissional da informação em todas
as fases da configuração de um sítio acessível. Desta forma, a Ciência da
Informação pode contribuir com as demais áreas do conhecimento, que estudam
e aplicam processos de representação e de organização da informação, visto que
a estrutura informacional dos portais tem que ser clara e acessível para este
perfil de usuários.
The revolution that the Internet has caused in promoting access to
information for everyone in our society is undeniable. The concept of
150
accessibility has expanded to other areas related to the promotion of quality of
life for everyone. Accessibility also refers to ensuring that all people have
access to information and communication. Web accessibility assumes that
websites and portals are designed so that everyone can effectively realize,
understand, navigate, and interact with the pages. But is the Internet really a
democratic space that achieves everyone? Will websites be developed taking
into account the concept of accessibility? The democratization of access to
digital data in various formats that circulate on the Internet, that is, Big Data has
been a recurring theme on the world stage, and in this context, discussions about
accessibility for disabled person seems to be a primordial and coherent issue
with access to digital information. The present study, which is a development of
one of the specific objectives of the doctoral project in progress, aims to identify
the regulatory frameworks for inclusion and access and accessibility restrictions
in web environments for disabled person. It is an exploratory and qualitative
research, since it started from the studies of Information Science, Information
Professional, Accessibility and Access Law and Big Data, to establish a link
between these concepts. As a result presents and describes the performance of
the information professional in all phases of the configuration of an accessible
site. By the way, Information Science can contribute to the other areas of
knowledge, which study and apply processes of representation and organization
of information, since the informational structure of the portals has to be clear
and accessible for this profile of users.
DADOS BIBLIOGRÁFICOS PARA O LINKED DATA: UMA
REVISÃO SISTEMÁTICA DE LITERATURA
BIBLIOGRAPHIC DATA FOR LINKED DATA: A SYSTEMATIC
REVIEW OF LITERATURE
Pôster / Poster
JESUS, Ananda Fernanda de.
UFSCar
CASTRO, Fabiano Ferreira de.
UFSCAR
O Linked Data foi desenvolvido visando atender o contexto
tecnológico vigente, caracterizado pela disponibilização massiva de conteúdos
no ambiente Web e pela preocupação em promover a recuperação efetiva desses
151
conteúdos, podendo ser aplicado potencialmente ao domínio bibliográfico.
Objetivou-se verificar a viabilidade e a relevância de se adequar os dados de
catálogos bibliográficos aos princípios do Linked Data. A coleta de dados
baseou-se em uma metodologia de caráter qualiquantitativo, pautada na
realização de uma Revisão Sistemática da Literatura, método pouco utilizado na
Ciência da Informação e que garante a representatividade dos documentos
recuperados. Para auxiliar a Revisão Sistemática utilizou-se a ferramenta
denominada StArt (State of the Art through Systematic Review). A utilização
deste método permitiu criar uma visão geral de como tem sido discutida a
relação entre o movimento Linked Data e os dados bibliográficos, a partir do
estudo dos documentos contidos nas principais bases de dados da Ciência da
Informação. Os dados obtidos foram analisados à luz das seguintes categorias de
análise: enfoque dos documentos recuperados, requisitos necessários para a
adequação de dados bibliográficos ao Linked Data, vantagens e desafios
relacionados a essa adequação. Como resultado da categoria enfoque dos
documentos identificou-se que existe uma grande preocupação da comunidade
biblioteconômica em publicar os trabalhos de adequação de dados feitos em
suas bibliotecas, em registrar as etapas deste processo, os desafios enfrentados e
as vantagens advindas dessa adequação. Identificou-se o Resource Description
Framework (RDF) e o Uniform Resource Identifier (URI) como sendo os
requisitos mais fundamentais necessários para prover a adequação de dados
bibliográficos ao Linked Data. As principais vantagens identificadas foram a
interoperabilidade de dados, melhores resultados de busca, maior visibilidade
dos dados das bibliotecas no ambiente Web e promoção de descoberta acidental
de recursos. Os principais desafios identificados foram a heterogeneidade dos
dados disponibilizados na Web e a conversão dos dados descritos em formato
MARC21. Concluiu-se que é viável e relevante adequar os dados bibliográficos
ao Linked Data, porém, muitos desafios ainda precisam ser superados para
permitir essa realidade.
The Linked Data was developed to meet the current technological
context, characterized by the massive availability of content in the Web
environment and the concern to promote the effective retrieval of such content,
and can potentially be applied to the bibliographic domain. The objective was to
verify the feasibility and relevance of matching the bibliographic data to the
principles of Linked Data. The data collection was based on a quali-quantitative
methodology character, based on the accomplishment of a Systematic Review of
Literature, a little method used in Information Science and that guarantees the
representativeness of the recovered documents. The use of this method allowed
to create an overview of how the relationship between the Linked Data
movement and the bibliographic data has been discussed, from the study of the
documents contained in the main databases of Information Science. In order to
assist in the process of performing the Systematic Review, the tool called StArt
152
(State of the Art through Systematic Review) was used. The data were analyzed
in the light of the following categories of analysis: focus of the retrieved
documents, necessary requirements for the adequacy of bibliographic data to
Linked Data, advantages and challenges related to this adequacy. As a result of
the document focus category, it has been identified that there is a great concern
of the library community in publishing the data adaptation work done in their
libraries, in recording the stages of this process, the challenges faced and the
consequences arising from this adaptation. The Resource Description
Framework (RDF) and the Uniform Resource Identifier (URI) were identified as
the most fundamental requirements to provide bibliographic data adequacy to
Linked Data. The main advantages identified were the interoperability of data,
better search results, greater visibility of the data of the libraries in the Web
environment and promotion of accidental discovery of resources. The main
challenges identified were the heterogeneity of the data available on the Web
and the conversion of the data described in MARC21 format. It was concluded
that it is feasible and relevant to adapt the bibliographic data to Linked Data,
however, many challenges still need to be overcome to allow this reality.
O PRINCÍPIO DA SIMETRIA NA VIRADA INFORMACIONAL E
A ANTROPOLOGIA ECOLÓGICA
THE PRINCIPLE OF SYMMETRY IN THE INFORMATIONAL
TURN AND THE ECOLOGICAL ANTHROPOLOGY
Comunicação Oral / Oral Communication
LALLO, Pedro.
Unesp / Marília
RUBIM, Christina.
Unesp / Marília
O objetivo deste trabalho é investigar o princípio da assimetria no
programa forte da sociologia do conhecimento cientifico tendo em vista a virada
informacional na filosofia e ciências. Para tanto, vamos compreender a virada
informacional (ADAMS, 2003; GONZALEZ et al, 2010) e o princípio da
assimetria (BLOOR, 2009) na estrutura geral das explicações. A versão mais
radical de tal princípio é aquela cujas explicações do conhecimento são
divididas entre certo e errado, verdadeiro e falso, racional e irracional. A
posição positiva dessas dicotomias seria teleológica, como se a lógica e a
153
racionalidade já bastassem em si mesmas. Já a posição negativa dessa divisão
apreciativa é causal, algo que interfere nos rumos próprios da razoabilidade e
inferência lógica. O aspecto causal estaria relacionado ao erro, falsidade,
limitação e desvio. Nesse sentido, caberiam aos racionalistas justificar a crença
verdadeira e caberiam aos cientistas sociais explicar as causas sociais que
levariam o intelectual ao erro. Em certo sentido, essa assimetria reproduz os
preconceitos platônicos e cartesianos sobre a divisão dualista do mundo. Para
Bloor (2009), uma ciência do conhecimento deve ser imparcial e seguir o
princípio da simetria, ou seja, a explicação do conhecimento deve ter a mesma
natureza explicativa para evitar que uma real sociologia do conhecimento se
torne uma ciência do erro, desvio e do irracional por mero preconceito
racionalista. Nesse sentido, o conceito de conhecimento para o programa forte
da sociologia do conhecimento é tudo aquilo que as pessoas consideram
conhecimento. Podemos resumir a importância deste princípio no ponto de vista
antropológico: um cientista imparcial não pode ir a campo, fazer um trabalho
etnográfico, por exemplo, a partir de tais preconceitos. Apesar da forte rejeição
da academia do princípio da simetria (LAUDAN, 2011), atualmente essa
discussão é retomada, na virada informacional, na filosofia e antropologia
ecológica como uma tentativa de se afastar das assimetrias modernas. A partir
desse arcabouço teórico, nossa reflexão final versará sobre os limites e alcance
de uma ciência do conhecimento no século XXI e a incapacidade das ciências de
produzir verdades, pois o princípio da simetria eliminaria o aspecto
transcendental da verdade – algo que exerça poder contra as contingências
humanas e não dependa delas. Concluímos provisoriamente, porém, que existe
nos conhecimentos um mínimo de relação com a realidade devido à ação dos
agentes no meio.
The objective of this paper is to investigate the principle of asymmetry
in the strong programme in the sociology of scientific knowledge considering
the informational turn in philosophy and science. To this end, we will
comprehend the informational turn (ADAMS, 2003; GONZALEZ et al., 2010)
and the principle of asymmetry in the general structure of explanations. The
most radical version of such principle is the one whose explanations of
knowledge are divided between right and wrong, true and false, rational and
irrational. The positive position of these dichotomies would be teleological, as if
the logic and the rationality were enough in themselves. On the other hand, the
negative position of this appreciative division is causal, something that
interferes in the proper directions of reasonableness and logical inference. The
casual aspect would be related to an error, falsehood, limitations and deviation.
In this sense, to the rationalists would be required to justify the true belief and to
the social scientists explain the social causes that would lead the intellectual to
the error. In a certain way, this asymmetry reproduces the platonic and cartesian
prejudices about the dualist division of the world. To Bloor (2009), a science of
154
knowledge must be impartial and follow the principle of symmetry, which is,
the explanation of knowledge must have the same explanatory nature to prevent
that a real sociology of knowledge becomes a science of error, deviation and of
the irrational because of a mere rationalist prejudice. In this respect, the concept
of knowledge for the strong programme of sociology of knowledge is all that
people consider as knowledge. We can summarize the importance of this
principle in the anthropologic point of view: an important scientist cannot go to
the field, perform an ethnographic work, for example, from such prejudices. In
spite of the academy’s solid rejection of the principle of symmetry (LAUDAN,
2011), currently this discussion is taken up, at the informational turn, in
ecological philosophy and anthropology as an attempt to step away from the
modern asymmetries. From this theoretical framework, our final reflection will
be on the limits and scope of a science of knowledge in the 21st century and the
inability of the sciences to produce verities, because the principle of symmetry
would eliminate the transcendental aspect of truth – something that exerts power
against the human contingencies and does not depend on them. We
provisionally conclude, however, that exist in the knowledge a minimum of
relation with the reality due to the action of the agents in the environment.
O ASSENTAMENTO FUNCIONAL COMO FONTE DE
INFORMAÇÃO ORGÂNICA A PARTIR DA CLASSIFICAÇÃO
FUNCIONAL: UM RELATO DE EXPERIÊNCIA
THE FUNCTIONAL ASSESSMENT OF AN ORGANIC FONT AS
INFORMATION AND THE SOURCE OF THE FUNCTIONAL
CLASSIFICATION: AN EXPERIENCE REPORT
Pôster / Poster
LEANDRO, Arlene Aparecida.
UEL
COSTA, Eliandro dos Santos.
UEL
O trabalho mostra a experiência envolvendo a teoria e prática em
classificação de documentos nas disciplinas de Estágio Supervisionado I e II, no
Curso de Arquivologia da Universidade Estadual de Londrina. Foi realizado no
Arquivo Público de Londrina, vinculado à Diretoria de Gestão de Informações e
Arquivo Público subordinada à Secretaria Municipal de Gestão Pública. A
155
documentação trabalhada foram os dossiês de assentamentos funcionais da
Prefeitura Municipal de Londrina, especificamente de funcionários desligados
da Administração Pública, ou seja, de funcionários aposentados, falecidos ou
exonerados. Todos os itens dos dossiês são tidos pelos funcionários do arquivo
como documento pertencente ao arquivo permanente, no entanto não consta
atualmente prazo definido e publicado em Tabela de Temporalidade de
Documentos. Para melhor entendimento da documentação foi feita a leitura dos
regimentos internos dos órgãos relacionados à atividade proposta, suas normas,
regulamentos, estatutos e demais documentos constitutivos da instituição.
Foram separados 20 caixas arquivos do acervo, contendo uma média de 4 dossiê
por cada caixa. A primeira atividade desenvolvida foi conhecer a história e a
trajetória da entidade, suas finalidades, funções, legislação, princípios
administrativos, atividades e estrutura organizacional. Foi realizada a
ordenamento do dossiê, por ordem cronológica crescente, a conferência de todos
os documentos que estavam naquele dossiê para saber se pertenciam ao
funcionário citado ou não, ou estavam arquivados errados. Foi realizado o
levantamento de tipos documentais de cada dossiê coletando-se os seguintes
itens: número de matrícula; nome do servidor; primeiro cargo; último cargo;
data de nascimento: data de desligamento; motivo; localização e número da
caixa. Foi produzido uma minuta de Plano de Classificação de Documentos
contidos no dossiê de assentamento funcional utilizando como amostra o ano de
2005. Durante o processo de classificação dos tipos documentais identificados
na amostra, buscou-se entender qual melhor método de classificação (por
assunto, estrutural, funcional) que seria mais adequado para o tipo de
instituição. Observando que há constantes mudanças na estrutura administrativa
da prefeitura, não seria adequado a adoção do método estrutural, bem como não
conviria a adoção do método por assunto, pelo mesmo não permitir o
entendimento do que trata cada item documental. Assim optou-se pelo método
de classificação funcional, o qual pode remeter os tipos documentais contidos
no dossiê diretamente vinculados a uma série correspondente à sua atividade
produtora, assim denominada por Gerenciamento de Recursos Humanos. Os
tipos documentais eram sempre melhor compreendidos e tratados pelo
funcionário do arquivo por sua denominação correspondente apenas à espécie.
A partir do instante que passou-se a entender o tipo documental dossiê de
assentamento funcional a partir de sua atividade produtora, possibilitou-se um
maior conhecimento sobre a motivação na origem de produção de cada item e,
por sua vez, a utilidade que ainda poderia ser designada para os tipos
documentais ali contidos. Inclui-se ainda a experiência como futuro profissional
a partir da compreensão do todo arquivístico optando pelo foco em uma função
arquivística – classificação – assimilando as habilidades necessárias para buscar
a excelência no fazer arquivístico.
156
This research shows the experience involving theory and practice in the
classification of documents in the disciplines of Supervision Internship I and II
which was presented in the Archives Course in the State University of Londrina.
It was held in the Public Archive of Londrina, this is linked to the Department
of Information Management subordinated to the Municipal Secretariat of Public
Management. The documentation that was worked on were of functional
settlement dossier of the Municipality of Londrina, specifically employees of
the Public Administration, that is, retired, deceased or exonerated employees.
All items in the files are taken by the employees of the achieve as a document
belonging to the permanent archive; however, there is currently no definite term
published in the Temporary Documents Table. For a better understanding of the
documentation, a reading of the internal regiments of the related sectors was
made related to the proposed activity, its norms, regulations, statutes and
constitutive documents of the institution. Twenty boxes from the achieves were
separated containing an average of 4 dossiers per box. The first activity
developed was to know the history and trajectory of the entity, its purposes,
functions, legislation, administrative principles, activities and organizational
structure. The ordering of the dossier was carried out, in ascending
chronological order, the conference of all the documents that were in that
dossier to know if they belonged to the civil servant quoted or not, or they were
archived wrong. Also, the documentary types of each dossier were collected as
well as the collection of the following items: registration number; server name;
first position; last charge; date of birth: date of dismissal; reason; location and
box number. A draft of the Classification Plan of Documents was created that
contained in the functional settlement dossier was produced using the year 2005
as a sample. During the process of classification of the different types of
documents identified in the sample, we sought to understand which better
method of classification (by subject, structural, functional) would be more
appropriate for the type of institution. Noting that there are constant changes in
the administrative structure of the city hall, it would not be appropriate to adopt
the structural method, as well as it would not be convenient to adopt the method
by subject, by the same does not allow the understanding of what each
documentary item is about. Therefore, the functional classification method was
chosen, which can refer the document types contained in the dossier directly
linked to a series corresponding to its production activity, so called Human
Resources Management. The documentary types were always better understood
and treated by the official of the archive by its name corresponding only to the
species. From the moment it became a kind of functional settlement dossier
document from each product and, in turn, a greater knowledge about the origin
of each product, could be assigned to the documentary types contained there. It
also includes experience as a professional future from the understanding of the
archival whole by opting for the focus on an archival function - classification -
assimilating the skills needed to pursue excellence in archival work.
157
A IMPORTÂNCIA DA MEMÓRIA COLETIVA NA
ORGANIZAÇÃO E REPRESENTAÇÃO DO CONHECIMENTO
NOS ESTUDOS AFRICANOS E DA DIÁSPORA
THE IMPORTANCE OF COLLECTIVE MEMORY IN THE
ORGANIZATION AND REPRESENTATION OF KNOWLEDGE
IN AFRICAN AND DIASPORA STUDIES
Pôster / Poster
LIMA, Graziela dos Santos.
Unesp / Marília
SILVA, Franciéle Carneiro Garcês da.
IBICT, UFRJ
GARCEZ, Dirnéle Carneiro.
UFSC
A luta pela liberdade e, consequentemente, pela igualdade surgiu desde
que os africanos vieram para o Brasil de forma forçada e, nessa trajetória,
trouxeram suas culturas e seu modo de ser e viver resistindo ao longo do tempo
às mazelas resultantes do racismo e da discriminação. A memória tende a ser
um elemento de representação do conhecimento que mesmo possuindo
elementos que remetem ao passado continua a se refletir no presente. A
memória é moldada a partir de discursos de sujeitos em coletividade, muitas
vezes presenciado, em forma de conhecimento comunicado cientificamente.
Nesse sentido, temos o seguinte problema de pesquisa, qual a importância da
memória coletiva para a organização dos estudos Africanos e da Diáspora na
construção do conhecimento que represente o coletivo? Esse é o problema
refletido nesta comunicação, onde seu objetivo geral é compreender a
importância da memória coletiva na construção de conhecimentos no campo dos
estudos Africanos e da Diáspora. Como objetivos específicos, pretende-se: a)
Conceituar a memória e seus tipos; b) Relacionar a memória coletiva e as
populações de origem africana para identificação e resistência na diáspora; c)
Identificar os principais temas que representam memórias traumáticas para a
população negra. A pesquisa é de natureza bibliográfica, com caráter
158
exploratório, onde a partir de artigos da revista da Associação Brasileira de
Pesquisadores/as Negros/as, no período de 2010 a 2018, identificaremos os
principais temas que representam memórias traumáticas que se fortaleceram e
fortalecem a população negra enquanto coletivo ao longo do tempo. A
abordagem é de natureza qualitativa, onde utiliza-se da análise de conteúdo para
a identificação dos fatos. Contudo, a análise do conteúdo dos artigos da revista
da Associação Brasileira de Pesquisadores/as Negros/as, além de identificar
temas que versam e simbolizam memórias traumáticas, também visibiliza a
diversidade cultural e as sociabilidades da população de origem africana no
Brasil.
The struggle for freedom, and consequently equality, has arisen since
the Africans came to Brazil in a forced manner and, in this trajectory, brought
their cultures and their way of living and resisting over time the ills resulting
from racism and discrimination. The memory tends to be an element of
representation of knowledge that even possessing elements that refer to the past
continues to be reflected in the present. Memory is shaped from the discourses
of subjects in collectivity, often witnessed, in the form of knowledge
communicated scientifically. In this sense, we have the following research
problem, what is the importance of collective memory for the organization of
African and Diaspora studies in the construction of knowledge that represents
the collective? This is the problem reflected in this communication, where its
general objective is to understand the importance of collective memory in
building knowledge in the field of African and Diaspora studies. As specific
objectives, it is intended: a) Conceptualize the memory and its types; b) Relate
collective memory and populations of African origin for identification and
resistance in the diaspora; c) Identify the main themes that represent traumatic
memories for the black population. The research is of a bibliographic nature,
with an exploratory character. From the articles of the Brazilian Association of
Black Researchers, from 2010 to 2018, we will identify the main themes that
represent traumatic memories that have strengthened black population as
collective over time. The approach is qualitative in nature, where an analysis of
the content is used to identify the facts. However, the analysis of the content of
the articles of the magazine of the Brazilian Association of Black Researchers,
besides identifying themes that refer to and symbolize traumatic memories, also
highlights the cultural diversity and the sociability of the African population in
Brazil.
IDENTIDADE DE GÊNERO E NOVAS TECNOLOGIAS: A
VIOLÊNCIA DE GÊNERO NO CONTEXTO DAS REDES
SOCIAIS
159
GENDER IDENTITY AND NEW TECHNOLOGIES: GENDER
VIOLENCE IN THE CONTEXT OF SOCIAL NETWORKS
Pôster / Poster
LIMA, Júlia Rodrigues de.
Unesp / Marília
O presente trabalho tem por objetivo analisar (1) uma abordagem
sistêmica da identidade de gênero e (2) identidades de gênero no contexto das
redes sociais e as formas de comunicação em redes sociais que propiciam a
propagação de discursos de ódio. Tradicionalmente, conforme aponta Butler
(2003), a noção de identidade de gênero costuma estar ligada à fixidez,
imutabilidade e substancialidade. A autora conceitualiza a noção de “gêneros
inteligíveis”, que correspondem às concepções tradicionais, polarizadas e
binárias de masculino e feminino. Para explicar a identidade de gênero nesse
sentido, Butler (1991) também faz uso do conceito de performatividade, o que
significa dizer que o suposto caráter originário e imutável dos gêneros na
perspectiva tradicional é de7rivado da repetição de papéis estabelecidos social e
culturalmente. Em uma direção alternativa, defendemos uma abordagem da
identidade de gênero através dos sistemas complexos que considera que pessoas
constantemente se ressignificam e se complexificam, inclusive quanto a suas
performances de gênero, no sentido proposto por Butler (2003), principalmente
por meio de processos auto-organizativos criativos. Acreditamos que analisar a
identidade de gênero a partir da abordagem sistêmica (Debrun, 1996; Mitchell,
2013), em contraposição às abordagens fixas e substancialistas, pode propiciar a
dissolução das noções essencialistas e imutabilistas de gênero e,
consequentemente, de estigmas, preconceitos e agressões que frequentemente
decorrem de tais concepções. Em especial, consideramos que uma abordagem
sistêmica da identidade de gênero pode auxiliar a compreender processos de
polarização e de propagação de discursos de ódio nas redes sociais relacionados
a identidades de gênero alternativas ou não tradicionais. Nossa hipótese de
trabalho é que a dinâmica de troca de mensagens escritas em redes sociais por
meio de postagens cria um ambiente de comunicação não propício ao diálogo,
possuindo frequentemente um caráter autocentrado de supervalorização da
opinião própria do eu em detrimento do outro, aspecto que parece contribuir
para a construção da violência virtual. Dessa forma questionamos: Quais seriam
as possíveis formas de minimizar as circunstâncias favoráveis à proliferação dos
discursos de ódio nas redes sociais? Haveria algum tipo de organização do
modo de comunicação na rede mais propício para o diálogo, argumentação e
aprendizagem? Em síntese, tentaremos analisar, a partir de uma abordagem
sistêmica, o conceito de identidade de gênero alternativa e, em um segundo
160
momento, analisar as formas de organização da comunicação em redes sociais
que propiciam a atualização de propensões ao discurso de ódio de seus usuários,
especialmente no Facebook.
The present work aims to analyze (1) a systemic approach to gender
identity and (2) gender identities in the context of social networks and the forms
of communication in social networks that propitiate the propagation of hate
speech. Traditionally, as Butler (2003) points out, the notion of gender identity
is often linked to fixity, immutability and substantiality. The author
conceptualizes the notion of "intelligible genres", which correspond to the
traditional, polarized and binary conceptions of masculine and feminine. In
order to explain gender identity in this sense, Butler (1991) also makes use of
the concept of performativity, which means that the supposed original and
unchanging character of the genres in the traditional perspective is based on the
repetition of socially and culturally established roles. In an alternative direction,
we advocate an approach to gender identity through complex systems that
consider that people are constantly reassigning and becoming more complex,
including their gender performances, in the sense proposed by Butler (2003),
mainly through creative self-organizing processes. We believe that analyzing
gender identity from the systemic approach (Debrun, 1996; Mitchell, 2013), as
opposed to fixed and substantialist approaches, can propitiate the dissolution of
essentialist and immutabilist notions of gender and, consequently, of stigmas,
prejudices and aggressions that often result from such conceptions.
In particular, we consider that a systemic approach to gender identity can help to
understand processes of polarization and propagation of hate speech in social
networks related to alternative or non-traditional gender identities. Our working
hypothesis is that the dynamic of exchanging written messages in social
networks through posts creates an environment of communication that is not
conducive to dialogue, often having a self-centered character of overvaluation of
the self's own opinion to the detriment of the other, an aspect that seems
contribute to the construction of virtual violence. In this way we asked: What
are the possible ways to minimize the circumstances favorable to the
proliferation of hate speech in social networks? Would there be some kind of
organization of the mode of communication in the network more conducive to
dialogue, argumentation and learning? In summary, we will try to analyze, from
a systemic approach, the concept of alternative gender identity and, in a second
moment, to analyze the forms of organization of communication in social
networks that propitiate the updating of propensities to the hate speech of its
users, especially on Facebook.
161
ANAIS DO GT1 DO ENANCIB: UMA PERSPECTIVA DA
INSTITUCIONALIZAÇÃO COGNTIVA E SOCIAL DA CIÊNCIA
DA INFORMAÇÃO NO BRASIL
ANNALS OF THE ENANCIB GT1: A PERSPECTIVE OF THE
COGNITIVE AND SOCIAL INSTITUTIONALIZATION OF
INFORMATION SCIENCE IN BRAZIL
Pôster / Poster
LIMA, Larissa Mello.
Unesp / Marília
MORAES, João Batista Ernesto.
Unesp / Marília
Com base nas considerações obtidas no trabalho "O percurso discursivo
da Ciência da Informação no Brasil: Uma análise discursiva a partir dos
periódicos "Ciência da Informação" e "Revista da Escola de Biblioteconomia da
UFMG" é possível dizer que o período em que realizou-se a análise (década
1970) ficou marcado enquanto época que buscava por elementos formadores da
espinha dorsal na consolidação epistemológica da área. Em oposição a esta
perspectiva, foi verificado, por meio da análise das formações discursivas, um
tratamento periférico em relação à epistemologia sendo retomado
exaustivamente a questão da interdisciplinaridade que incide sobre a área. O
tratamento periférico em relação à epistemologia pode ser explicado pela
institucionalização recente da Ciência da Informação no Brasil e acredita-se que
para que este tratamento se torna-se central foi fundamental investigar uma
outra camada da comunicação científica. Parte-se da problemática de que os
anais de eventos representam um nível de formalidade equivalente ao dos
periódicos científicos, na medida em que ambos canais de comunicação tem se
institucionalizado formalmente através de sociedades científicas ao redor do
mundo nos últimos 20 anos em nível internacional e nacional. Para tanto
acreditou-se ser viável um olhar discursivo verticalizado que situa-se como a
perspectiva epistemológica vinha sendo tratada. Ou seja: Como foi delineada a
institucionalização cognitiva e social da área no Brasil? Para responder esta
questão elencou-se como prioridade a busca por elementos que tornassem
possível o delineamento do percurso discursivo trilhado pela Ciência da
Informação a partir da análise discursiva dos anais do GT 1 do ENANCIB sobre
os estudos históricos e epistemológicos da área em nível de pós graduação.
162
Acredita-se que a institucionalização cognitiva e social tem o poder de ressaltar
a opacidade da institucionalização científica, sendo esta última responsável e
refém de suas próprias enunciações. Legitima-se, deste modo, a discrepância
entre as definições, ou seja, não há um equilíbrio epistemológico acerca do que
seria a Ciência da Informação mas sim, dois polos de atuação que atuam na
institucionalização cognitiva e social: o que encara a Ciência da Informação
enquanto Interdisciplinar, sendo mais teórico, e o polo que mostra a
responsabilidade da Ciência da Informação na atualidade, sendo este mais
concreto.
Based on the considerations obtained in the paper "The discursive
course of the Information Science in Brazil: A discursive analysis from the
periodicals" Information Science "and" Journal of the Library School of UFMG
"it is possible to say that the period in which if the analysis (decade 1970) was
marked as a time that looked for elements forming the backbone in the
epistemological consolidation of the area. In opposition to this perspective, it
was verified, through the analysis of the discursive formations, a peripheral
treatment in relation to the epistemology being the peripheral treatment in
relation to epistemology can be explained by the recent institutionalization of
Information Science in Brazil and it is believed that for this treatment to become
central it was fundamental to investigate another layer of scientific
communication. Part of the problem that the annals of events represent a level of
formality equivalent to that of scientific journals, as both channels of
communication have been formally institutionalized through scientific societies
around the world in the last 20 years at the international and national level. For
this it was believed to be viable a verticalised discursive look that is situated as
the epistemological perspective was being treated. That is: How was the
cognitive and social institutionalization of the area in Brazil outlined? In order
to answer this question, the search for elements that make possible the
delineation of the discursive path traced by Information Science based on the
discursive analysis of the annals of the ENANCIB WG 1 on the historical and
epistemological studies of the post-level area University graduate. It is believed
that cognitive and social institutionalization has the power to emphasize the
opacity of scientific institutionalization, the latter being responsible and hostage
of its own enunciations. Thus, there is a discrepancy between the definitions,
that is, there is no epistemological balance about what information science
would be but rather two poles of action that act in the cognitive and social
institutionalization: what does Science of Information as an Interdisciplinary,
being more theoretical, and the pole that shows the responsibility of Information
Science in the present time, being this more concrete. A INTERPRETAÇÃO DA CULTURA ATRAVÉS DOS DADOS: O
BIG DATA A PARTIR DA EPISTEMOLOGIA DO SUL
163
THE INTERPRETATION OF CULTURE THROUGH THE
DATA: THE BIG DATA FROM THE SOUTHERN
EPISTEMOLOGY
Comunicação Oral / Oral Communication
LIMA, Renata Lipia.
USP
ROMANINI, Anderson Vinicius.
USP
A revolução digital, acompanhada mais recentemente pela introdução
dos dispositivos móveis conectados online em redes sociais que povoam o
ciberespaço, produziu uma nova esfera para a circulação da informação e
produção de cultura. Um dos efeitos da interação dos agentes culturais no
ciberespaço é a acumulação de um fabuloso volume de dados sobre as ações e
transações nos usuários das redes, batizado de Big Data, e que passou a ser
tratado com ferramentas especiais de visualização e interpretação a partir de
algoritmos programados para atender aos propósitos do atual estágio do sistema
capitalista, bem como dos detentores do poder político em busca de uma
hegemonia digital. O Big Data não é neutro, não há extração de dados
despretensiosa. Perceber os elementos que compõem essa disputa, levando em
conta esse novo e desafiador território que é a internet, confere ao Big Data uma
fundamental importância na interpretação das sociedades hipermodernas.
Defendemos a necessidade de uma Epistemologia do Sul na formulação desses
algoritmos e esquemas interpretativos para garantir que a diversidade e
complexidade das culturas periféricas do sistema sejam não só preservadas, mas
também como base para a formulação de ações de resistência e de afirmação das
identidades ameaçadas no vertedouro das redes dominadas pelos novos barões
midiáticos que estendem suas influências a partir do Vale do Silício norte-
americano. Parte fundamental deste processo, é a obrigação de informar e
formar usuários, público em geral, sobre os muitos fatores que compõem esse
conjunto de dados. Para tanto, iremos nos apoiar em teorias interpretativas
vindas de Stuart Hall, Lev Manovich, Milton Santos, Edgard Morin, Antonio
Gramsci, Jesús Martin-Barbero, entre outros, a fim de buscar a fundamentação
para essa nova possibilidade de leitura e significação dos “grandes dados”.
164
The digital revolution, followed by the introduction of mobile devices
connected online in social networks, has produced a new dimension for the
circulation of information and production of culture. One of the effects of the
cyberculture is the accumulation of a fabulous amount of data about the actions
and transactions of the users of the networks. The so called Big data has been
treated with special tools of visualization and interpretation to meet the purposes
of the current stage of the capitalist system, as well os the holders of political
power in search of a digital hegemony. The Big Data is not neutral, there is no
unpretentious data extraction. Understanding the elements that make up this
dispute, taking into account this new and challenging territory that is the
internet, gives Big Data a fundamental importance in the interpretation of
hypermodern societies. We advocate the need for a Southern Epistemology in
the formulation of these algorithms and interpretative schemes to ensure that the
diversity and complexity of the peripheral cultures of the system are not only
preserved but also as a basis for the formulation of resistance actions and
affirmation of the identities threatened in the spillway of networks dominated by
the new media barons that extend their influences from the North American
Silicon Valley. A fundamental part of this process is the obligation to inform
and train users, the general public, about the many factors that make up this data
set. For this purpose, we will count on the theories of interpretation from Stuart
Hall, Lev Manovich, Milton Santos, Edgard Morin, Antonio Gramsci, Jesús
Martin-Barbero, among others, in order to seek the basis for this new possibility
of reading and meaning of Big Data.
O PROCESSO DE INTELIGÊNCIA COMPETITIVA COMO
FERRAMENTA ESTRATÉGICA FRENTE AO BIG DATA EM
MICRO E PEQUENAS EMPRESAS
THE COMPETITIVE INTELLIGENCE PROCESS AS A
STRATEGIC TOOL FOR BIG DATA IN MICRO AND SMALL
ENTERPRISES
Pôster / Poster
MAFIA, Mariana Aparecida.
UNOESTE
JORGE, Carlos Francisco Bitencourt.
Unesp / Marília
165
Com o avanço dos recursos dentro da internet, registramos nossa vida
no mundo digital através dos inúmeros aplicativos e programas que acessamos
nos dispositivos conectados que possuímos. São informações sobre nossas
preferências pessoais, profissionais, locais por onde passamos, opiniões e
diversas atividades que ficam em forma de rastro no ambiente digital. As
organizações, nesse contexto, buscam desenvolver estratégias que permitam
tanto a captura quanto o acesso facilitado a essas informações. Por sua vez, os
profissionais dessas organizações, principalmente os do nível estratégico,
encontram um grande desafio sobre como gerir o grande volume de informações
geradas o tempo todo. Ferramentas e estratégias passam ser necessárias tendo
como estrutura base o processo de inteligência competitiva (IC), afinal essas
organizações e gestores precisam realizar um planejamento quanto ao escopo
das informações, desenvolver estratégias para a coleta, realizar um bom
processo de análise para transformar essas informações em inteligência para,
enfim, disseminar e utilizá-las em formato de inteligência. Tal processo deve ser
realizado de forma que permita a gestão perante o cenário atual das
organizações, considerando o grande número de informações dispostas na rede
virtual. Dessa maneira, cabe às organizações considerarem esse grande volume
de informações, intitulado como Big Data, sob duas perspectivas: o local de
repositório onde as informações estão inseridas e como os dados podem ser
acessados. É importante ressaltar que ao se utilizar das possibilidades do Big
Data, devem-se levar em consideração cinco características que estão
correlacionadas às informações: volume, ou seja, quantidade disponível e será
explorado, velocidade com que elas são atualizadas dentro do Big Data,
variedade, ou formato em que estão dispostas, veracidade, qual a confiabilidade
da informação? E por fim, o valor que ela possui para a organização. No
contexto das grandes empresas existem estruturas de tecnologia, recursos
humanos e demais componentes que já trabalham com a informação, porém,
questiona-se como as micro e pequenas empresas (MPEs) podem tirar proveito
das informações inseridas nos Big Datas. Desse modo, a presente pesquisa tem
por objetivo propor parâmetros de IC voltados para a otimização das
informações dos Big Datas, uma vez que, quanto menor a empresa, menos
recursos estão disponíveis, em contrapartida, o uso eficaz da informação pode
gerar diferenciais competitivos e auxiliar nas tomadas de decisões em múltiplos
cenários dessas organizações. Para o desenvolvimento dos parâmetros de IC
com foco em Big Datas voltado para MPEs realizou-se uma revisão
bibliográfica acerca dos conceitos de informação, Big Data, inteligência
competitiva e MPEs, considerando a validade do processo e escassez de
recursos. O estudo se mostra relevante, visto que a grande parte dos
empreendimentos no Brasil são MPEs e a inteligência como processo contínuo
pode tornar-se fator chave para essas organizações.
166
The advancement of resources within the Internet, we record our lives
in the digital world through the many applications and programs we access on
the connected for our devices. They are information about our personal
preferences, professionals, places we pass, opinions and various activities that
remain in the form of a trail in the digital environment. Organizations in this
context seek to develop strategies that allow both capture and easier access to
this information. On the other hand, the professionals of these organizations,
especially those of the strategic level, find a great challenge on how to manage
the great volume of information generated all the time. Tools and strategies
become necessary based on the competitive intelligence process (CI), after all,
these organizations and managers need to plan as to the scope of information,
develop strategies for the collection, perform a good analysis process to
transform this information in intelligence to, finally, disseminate and use them
in intelligence format. This process must be carried out in a way that allows the
management of the current scenario of organizations, considering the large
number of information provided in the virtual network. Thus, it is for
organizations to consider this large volume of information, called Big Data,
from two perspectives: the repository location where the information is inserted
and how the data can be accessed. It is important to emphasize that when using
the Big Data possibilities, one must take into account five characteristics that are
correlated to the information: volume, that’s, quantity available and will be
explored, speed with which are they updated within the Big Data, variety , or
format in which they are arranged, veracity, is what the reliability of the
information? And finally, the value it has for the organization. In the context of
large companies there are technology structures, human resources and other
components that already work with the information, however, it is questioned
how micro and small companies (MSCs) can take advantage of the information
inserted in Big Dates. Thus, the present research aims to propose CI parameters
aimed at optimizing the Big Dates information, since the smaller the company,
the fewer resources are available, in contrast, the efficient use of the information
can generate competitive differentials and decision making in multiple scenarios
of these organizations. For the development of CI parameters with a focus on
Big Dates aimed at MSCs, a bibliographic review was carried out on the
concepts of information, Big Data, competitive intelligence and MSCs,
considering the validity of the process and scarcity of resources. The study is
relevant since most of the enterprises in Brazil are MPEs and intelligence as a
continuous process can become a key factor for these organizations.
ASPECTOS DE UMA DEMOCRACIA HACKEADA: BIG DATA,
FAKE NEWS E A FORMAÇÃO DA OPINIÃO PÚBLICA
ASPECTS OF A HACKED DEMOCRACY: BIG DATA, FAKE
NEWS AND THE FORMATION OF THE PUBLIC OPINION
167
Comunicação Oral / Oral Communication
MARTORANO, Maísa.
Unicamp
Por Democracia Hackeada entendemos uma Democracia cujos
procedimentos e finalidades estão constantemente suscetíveis a interferências
tanto externas quanto internas, cujo intento é modificar a finalidade da
democracia de um instrumento usado na promoção do bem comum, para um
instrumento utilizado para atingir fins particulares. Essa condição se faz
aparente no início desse século XXI e desconfiamos que seja constituinte das
relações políticas na Era da Informação. Para um Estado que adota um governo
democrático, isto é, para um Estado cujos processos decisórios são confiados
aos seus cidadãos, a formação da opinião pública é o fator mais importante na
determinação das políticas públicas e do funcionamento do Estado. E, no
caminho para a formação da opinião pública, o papel da propaganda é
reconhecido como fundamental. Uma questão emergente e de sensível
importância para determinação de nosso futuro político diz respeito ao que vem
sendo chamado de Big Data, e que se refere ao acúmulo e processamento dos
dados colhidos dos indivíduos em suas atividades cotidianas. Dados esses que
servem não apenas para formular perfis dos usuários como alvos de campanhas
diversas, nem apenas para estudos científicos obscuros sobre manipulação do
comportamento e da opinião pública. Mas servem, sobretudo, ao
desenvolvimento e aperfeiçoamento de Inteligências Artificiais, que segundo
alguns entusiastas, poderiam ajudar a desenhar um novo contrato social para a
comunidade global. Em que medida o Big Data modificou o instrumento da
propaganda em relação à formação da opinião pública? No estágio atual da
disputa pelo terreno da informação cada veículo, agência, ou indivíduo que
promove uma notícia o faz a partir de uma perspectiva específica, movido por
razões específicas e para atingir objetivos específicos; e a ilusão de uma
narrativa unificada, de um relato ou discurso homogêneo sobre o que é a
verdade e o que os fatos representam dissolveu-se para dar lugar à disputas
constantes das mais diversas origens. O fenômeno das fake news surge apenas
nesse contexto, ou ele é algo muito antigo que apenas ganhou novos moldes e
nova intensidade na atual contingência histórico-tecnológica? O objetivo deste
trabalho é analisar o papel do Big Data na formação da opinião pública, e
também sua relação com as técnicas de informação e desinformação (fake
news). Nossa principal preocupação resume-se na pergunta: O Big Data é um
instrumento de engenharia social?
168
By Hacked Democracy we mean a Democracy whose procedures and
purposes are constantly susceptible to both external and internal interference,
whose intent is to change the purpose of democracy from an instrument used in
promoting the common good to an instrument used to achieve particular ends.
This condition becomes apparent at the beginning of this twenty-first century
and we suspect that it is a constituent of political relations in the Information
Age. For a State that adopts a democratic government, that is, for a State whose
decision-making processes are entrusted to its citizens, the formation of public
opinion is the most important factor in determining public policies and state
functioning. And, on the road to forming public opinion, the role of advertising
is recognized as fundamental. An emerging issue of considerable importance in
determining our political future concerns what is being called the Big Data,
which refers to the accumulation and processing of data collected from
individuals in their daily activities. These data serve not only to formulate user
profiles as diverse campaign targets, but also to obscure scientific studies on
behavior manipulation and public opinion. But they mainly serve the
development and improvement of Artificial Intelligence, which some
enthusiasts say could help design a new social contract for the global
community. To what extent did Big Data modify the propaganda tool in relation
to the formation of public opinion? At the present stage of the dispute over
information each vehicle, agency, or individual promoting news does so from a
specific perspective, driven by specific reasons and to achieve specific goals;
and the illusion of a unified narrative, of a homogenous account or discourse
about what truth is and what the facts represent has dissolved to give rise to the
constant disputes of the most diverse origins. Is the fake news phenomenon only
emerging in this context, or is it something very old that has only gained new
molds and new intensity in the current historical-technological contingency?
The objective of this work is to analyze the role of Big Data in the formation of
public opinion, as well as its relationship with information and disinformation
techniques (fake news). Our main concern comes down to the question: Is Big
Data an instrument of social engineering?
LEVIATÃ 3.0: A PAZ À SOMBRA DOS DADOS
LEVIATHAN 3.0: PEACE UNDER THE SHADOW OF DATA
Pôster / Poster
MARTORANO, Maísa.
Unicamp
169
O surgimento da web 2.0 possibilitou uma dinâmica usuário-máquina
que resultaria num acúmulo de dados e informações acerca dos indivíduos sem
precedente na história. Esses dados vem sendo utilizados para promover ideias,
produtos, comportamentos, serviços; mas também são utilizados na formulação
de algoritmos que constituem inteligências artificiais. Esse processo resultou na
chamada web 3.0, na Internet Inteligente, que não apenas oferece acesso à
informações e serviços, e não apenas permite aos indivíduos acesso à criação de
conteúdo e divulgação de ideias. Ela também qualifica, ordena e restringe às
informações e serviços, moldando o mundo de acordo com o perfil desenhado
pela interação do próprio indivíduo com a rede através daqueles mesmos
algoritmos e inteligências artificiais. Big data é o termo que vem sendo usado
para fazer referência a esse acúmulo de dados que em última instância não
capturam apenas informações isoladas acerca dos indivíduos, mas possibilitam
prever e determinar com precisão assustadora tendências e comportamentos.
Seria o Big Data o novo limite das relações humanas, nosso novo monstro?
Quem seria capaz de resistir a ele? Quem ousaria desafiá-lo? O objetivo deste
trabalho é analisar o fenômeno do Big Data e suas implicações nas relações
políticas e sociais a partir do mito do Leviatã, tanto em sua enunciação bíblica
quanto na retomada feita por Hobbes que inaugura o Estado Moderno. Nossa
intenção ao pensar essa comparação é verificar se os recentes desenvolvimentos
técnicos apresentam novidades para o problema da obrigação política, no âmbito
da teoria do estado e da filosofia política. Centrais para o debate acerca da noção
de obrigação política são os temas relativos ao dever de obediência e o direito à
resistência, que por sua vez se referem à legitimação do poder – esse último
entendido enquanto ordenamento jurídico que dispõe as regras e os limites de
ação do Estado por um lado, e as regras de conduta do cidadão por outro. Em
outras palavras, ao examinarmos o mito do Leviatã à luz do fenômeno do Big
Data pretendemos, de um modo geral, avaliar se as consequências desse último
para a vida civil e política podem significar a necessidade de revisão dos valores
que hoje legitimam e constituem o ordenamento estatal e as relações políticas no
Estado de Direito, e também dos limites da ação do Estado.
The emergence of web 2.0 enabled a user-machine dynamics that
would result in an accumulation of data and information about individuals
unprecedented in history. This data has been used to promote ideas, products,
behaviors, services; but are also used in the formulation of algorithms that
constitute artificial intelligences. This process has resulted in so-called web 3.0
on the Intelligent Internet, which not only provides access to information and
services, but also enables individuals to access content creation and
dissemination of ideas. It also qualifies, organizes and restricts information and
services, shaping the world according to the profile drawn by the individual's
interaction with the network through those same algorithms and artificial
intelligences. Big data is the term that has been used to refer to this
170
accumulation of data that ultimately does not capture only isolated information
about individuals, but makes it possible to predict and accurately predict
frightening trends and behaviors. Was Big Data the new limit of human
relations, our new monster? Who would be able to resist him? Who would dare
challenge him? The purpose of this paper is to analyze the Big Data
phenomenon and its implications in political and social relations from the myth
of Leviathan, both in its biblical enunciation and in the Hobbes revival that
inaugurates the Modern State. Our intention in thinking this comparison is to
verify if the recent technical developments present novelties for the problem of
political obligation, in the scope of the theory of the state and the political
philosophy. Central to the debate about the notion of political obligation are the
subjects related to the duty of obedience and the right to resistance, which in
turn refer to the legitimacy of power - the latter understood as a legal order that
provides the rules and limits of action of the State on the one hand, and the rules
of conduct of the citizen on the other. In other words, in examining the myth of
Leviathan in the light of the Big Data phenomenon, we intend to assess whether
the consequences of the latter to civil and political life may mean the need to
revise the values that today legitimize and constitute the State order and political
relations in the rule of law, and also the limits of State action.
BIG DATA E INTELIGÊNCIA ARTIFICIAL: ASPECTOS
ÉTICOS E LEGAIS MEDIANTE A TEORIA CRÍTICA
BIG DATA AND ARTIFICIAL INTELLIGENCE: ETHICAL AND
LEGAL ASPECTS THROUGH CRITICAL THEORY
Comunicação Oral / Oral Communication
MELLO, Mariana Rodrigues Gomes de.
Unesp / Marília
CAMILLO, Everton da Silva.
Unesp / Marília
SANTOS, Beatriz Rosa Pinheiro dos.
Unesp / Marília
Big Data e Inteligência Artificial são temas amplamente comentados
nos âmbitos empresarial e científico e estão revolucionando o universo dos
171
negócios. A sociedade está cada vez mais sujeita a interferência desses sistemas
informacionais que auxiliam na tomada de decisões dos gestores frente a
possibilidade de análise de inúmeras características dos seus colaboradores,
clientes e público alvo. Portanto, a ferramenta que permite a manipulação e
estudo desses bilhões de dados se torna algo imprescindível nos dias hodiernos.
Nesse sentido, o Big Data é capaz de agrupar grande quantidade de dados
digitais disponíveis na internet, possibilitando a confecção de padrões analíticos
do comportamento e da dinâmica de sistemas interacionais complexos. Em
Inteligência Artificial, tem se falado acerca do machine learning ou máquina
dotada de aprendizado que busca padrões de dados a partir de códigos capazes
de fazer grande rastreamento nessas bases. Toda esta estrutura complexa tem
seu lado positivo e facilita os processos empresariais. Porém, o problema incide
no fato desses dados serem frutos tanto do uso consciente na rede – tal como o
Linkedin – mas também do rastro digital que as pessoas deixam,
inconscientemente, na internet. Enquetes travestidas de brincadeiras (testes) no
Facebook podem fomentar bancos de dados em inúmeros locais, talvez
geograficamente desconhecidos do usuário, uma questão ética e legal. Outro
fator problemático, recai na automação poder suprimir cargos empresariais. Este
problema da máquina substituir o trabalho humano emana desde a Revolução
Industrial. Assim, ética e capital nos remete às questões suscitadas pela Escola
de Frankfurt, principalmente por Adorno e Horkheimer por utilizarem mitos
clássicos para elucidar seus pensamentos e compreender que o estilo de
dominação presente nos mitos é encontrado na racionalidade técnica. A relação
entre mito, dominação e trabalho, para os filósofos da Escola de Frankfurt, se
vale da alegoria do “canto das sereias”, que equivale às técnicas da sociedade
capitalista. O sistema capitalista tende a dominar a humanidade, cerceando seu
potencial reflexivo, pois a razão instrumental serve à produção e exploração dos
trabalhadores. Nos tornamos reféns dos progressos científico e social travestidos
de capitalismo. Portanto, equilibrar a ação da IA e fator humano vai além do
campo cientifico, estendendo-se também ao político. Nunca antes, ética e a
emergência de normas no âmbito do Big Data e IA tornaram-se tão latentes à
atual conjuntura frente ao deliberado e ardiloso universo online que, há muito,
carece de leis precisas. Diante disso, a pesquisa parte do seguinte problema: As
funcionalidades em torno ao Big Data podem estar infringindo aspectos éticos e
legais do ser humano? O objetivo é refletir mediante a Teoria Crítica essa
questão. Para tanto, será realizada uma pesquisa exploratória, bibliográfica, de
cunho teórico e qualitativo. De acordo com esse cenário, acredita-se que é
imprescindível que a comunidade científica trabalhe de maneira crítica as
abordagens que se relacionam com universo Big Data, almejando explorar suas
potencialidades, transformando seu uso em algo benéfico, ético, legal e
consciente frente às necessidades humanas de tomadas de decisão. Verificou-se
que a legislação, apesar de avanços, é muito inconsistente nesse campo.
172
Big Data and Artificial Intelligence are widely discussed topics in
business and scientific circles and are revolutionizing the business world. The
society is increasingly subject to the interference of these information systems
that help in the decision making of the managers against the possibility of
analyzing innumerable characteristics of its employees, customers and target
audience. Therefore, the tool that allows the manipulation and study of these
billions of data becomes essential in modern times. In this sense, Big Data is
capable of grouping large amounts of digital data available on the Internet,
making it possible to compile analytical patterns of the behavior and dynamics
of complex interactive systems. In Artificial Intelligence, there has been talk
about the machine learning or learning machine that seeks data patterns from
codes that can do great tracking on these bases. All this complex structure has
its positive side and facilitates business processes. However, the problem lies in
the fact that these data are the result of both conscious use on the network - such
as Linkedin - and the digital trail that people unconsciously leave on the
Internet. Facebook-hosted polls (tests) can foster databases in a number of
locations, perhaps geographically unknown to the user, an ethical and legal
issue. Another problematic factor lies in automation being able to suppress
business positions. This problem of the machine replace human labor emanates
since the Industrial Revolution. Thus, ethics and capital refer us to the issues
raised by the Frankfurt School, especially by Adorno and Horkheimer for using
classical myths to elucidate their thoughts and to understand that the style of
domination present in myths is found in technical rationality. The relation
between myth, domination and work, for the philosophers of the Frankfurt
School, draws on the allegory of "siren song", which is equivalent to the
techniques of capitalist society. The capitalist system tends to dominate
humanity, curtailing its reflective potential, because instrumental reason serves
the production and exploitation of workers. We become hostages of the
scientific and social progress of capitalism. Therefore, balancing the AI action
and human factor goes beyond the scientific field, extending to the political as
well. Never before, ethics and the emergence of Big Data and IA standards have
become so latent to the current juncture in the face of the deliberate and cunning
online universe that has long lacked precise laws. In view of this, the research
starts from the following problem: Are the functionalities around the Big Data
infringing ethical and legal aspects of the human being? The objective is to
reflect through the Critical Theory this question. For that, an exploratory,
bibliographical, theoretical and qualitative research will be carried out.
According to this scenario, it is believed that it is imperative that the scientific
community work critically on approaches that relate to the Big Data universe,
aiming to explore its potentialities, transforming its use into something
beneficial, ethical, legal and conscious to the needs decisions. It has been found
that legislation, despite advances, is very inconsistent in this field.
173
BIG DATA: O OUTRO VIOLADO
BIG DATA: THE OTHER VIOLATED
Pôster / Poster
MONTEIRO NETO, Benedito da Conceição.
UEPA
PEGADO, Higor Vinicius.
UEPA
O trabalho tem como objetivo principal realizar uma reflexão e
contribuição ético-filosófica fundamentada nas contribuições filosóficas do
Filósofo Enrique Dussel e a temática dos Big Data. Compreende-se o Outro
como aquele diferente do eu, inferior, e que, geralmente, é objetificado, não
participante do diálogo/construção social, sendo um “ser instrumental” ou
modelar. Propõe-se uma ética que seja em/a favor dos sujeitos como seres que
fazem parte do todo e não como um objeto ou meio para se alcançar algo.
Propõe-se também, de forma interdisciplinar, uma ética que em meio aos
bancos/volumes de dados que circulam sem/com consentimento daqueles que os
fornecem sem o devido esclarecimento das empresas e/ou instituições que as
catalogam. Assim, parte-se para a necessidade de repensar as relações entre
aqueles que estão por trás das coletas dos dados e os sujeitos (o Outro) e o uso
intencionado de suas informações, isto é, os problemas provenientes das trocas,
monitoramentos, vendas (i)legais das informações dos indivíduos que não
sabem da constante inspeção de sua vida, apesar dos softwares e sites
disponibilizarem contratos em que avisem sobre a concessão dos dados, sendo
estes contratos longos, cansativos, possuindo uma linguagem técnica, feito
propositalmente para que as condições propostas sejam aceitas com mais
facilidade e de modo automático, ao alcance de um clique. Uma catalogação que
abarca informações pessoais, financeiras, econômicas até informações
emocionais, religiosas, etc. Sendo esta, uma prática que gira em torno da
violação pessoal que tem como finalidade interesses políticos, econômico
(existindo uma indústria altamente lucrativa por trás), em torno da informação.
Como meio de manter uma relação clara e justa entre aqueles que “podem”
monitorar e aqueles que são monitorados, faz-se necessário uma ética do
diálogo, em que o Outro que é vigiado, tenha autonomia e segurança
informacional e participe ativamente na construção da rede e tenha ciência do
que é feito com seus dados, já que as práticas provenientes desses dados têm um
efeito prático/real.
174
The main objective of the work is to advance an ethical-philosophical
reflection and contribution based on the philosophical contributions of the
Philosopher Enrique Dussel and Big Data. Understanding the Other as someone
lower, is generally objectified, not participant in dialogue/construction social,
being an "instrumental being" or modeling. Proposing an ethics that is in / in
favor of the subjects as beings that are part of the whole and not as an object or
means to achieve something. Proposing in an interdisciplinary way this ethic
that among the banks / volumes of data that circulate without / with the consent
of those who provide them without the due clarification of the companies and /
or institutions that catalog them. Thus, it is necessary to rethink the relations
between those who are behind the data collection and the subjects (the Other)
and the intentional use of their information, that is, the problems arising from
exchanges, monitoring, sales ( i) legal information from individuals who do not
know about the constant inspection of their lives, although the software and sites
make available contracts in which they warn about the data, being these
contracts long, tiring, possessing a technical language, made purposely so that
the conditions are accepted more easily and automatically, within reach of a
click. A cataloging that includes personal, financial, economic information to
emotional, religious, etc. information. Being this, a practice that revolves around
the personal violation that has as its purpose political, economic interests (there
being a highly profitable industry behind), around information. As a means of
maintaining a clear and fair relationship between those who "can" monitor and
those who are monitored, it is necessary to have an ethics of dialogue, in which
the Other that is watched has informational autonomy and security and actively
participates in the construction of network and be aware of what is done with
your data, since the practices from these data have a practical / real effect.
"WEB SEMÂNTICA" NO GT2 DO ENANCIB: ANÁLISE DE
PROCEDIMENTOS MÉTODOLÓGICOS
"SEMANTIC WEB" IN THE ENANCIB GT2: ANALYSIS OF
METHODOLOGICAL PROCEDURES
Pôster / Poster
MORAES, Isabela Santana de.
Unesp / Marília
NOVAES, Fernanda Carolina Pegoraro.
Unesp / Marília
175
MOREIRA, Walter.
Unesp / Marília
Considerando-se a organização do conhecimento fundamental para a
garantia de qualidade na recuperação, juntamente com a grande quantidade de
disseminação do conhecimento na web, destaca-se a necessidade de estudos
teóricos e metodológicos interdisciplinares que possibilitem compreender o
tratamento da organização no meio digital. Entende-se que ainda faltam bases
teóricas consistentes que propiciem uma compreensão mais objetiva web
semântica no âmbito da organização do conhecimento. Desse modo, é de
fundamental importância investigações relativas ao aporte metodológico que
está sendo utilizado dentro desse domínio para pesquisas que envolvem a web
semântica. Assim o texto discorre sobre uma análise de quais são os
procedimentos metodológicos utilizados em trabalhos que estudam web
semântica na perspectiva da organização do conhecimento. Para isso foram
recuperados trabalhos do GT2- Organização do Conhecimento do Enancib
(Encontro Nacional de Pesquisa em Ciência da Informação) armazenados na
BENANCIB, assim o corpus de análise contempla 140 trabalhos que
apresentam os termos web semântica ou semantic web no texto completo. A
metodologia utilizada é análise de conteúdo para identificar por intermédio das
categorias de análise a posteriori, quais são os procedimentos metodológicos
utilizados nesses artigos que trabalham com web semântica dentro da OC.
Foram identificadas duas metodologia principais: análise de conteúdo e análise
de domínio. Em análise de conteúdo exploram-se conceito a fim de estabelecer
relações e compreender a representação a representação do conteúdo em web
semântica. A partir disso, a utilização de instrumentos como mapa conceitual e
tesauro. A análise de domínio é utilizada para mapear sub áreas da web
semântica e terminologias para possibilitar a construção de ontologias e
vocabulários controlados. Para tal, utiliza-se a revisão de literatura
embasamento em teorias, como a Teoria Geral da Terminologia, Teoria do
Conceito, Teoria da Classificação Facetada e Teorias de Organização e
Recuperação da Informação. Conclui-se, que as metodologias identificas neste
estudo, investigam conceitos, tanto em nível de conhecimento terminológico,
quanto em nível de abrangência do significado de conteúdo conceitual de web
semântica. Ressalta-se ainda que, foram recuperados artigos com procedimentos
metodológicos mal delimitados, o que sugere-se estudos maiores sobre
aplicação de métodos no âmbito da Ciência da Informação.
Considering the organization of the fundamental knowledge for quality
assurance in the recovery, together with the great amount of dissemination of
knowledge on the web, it is necessary to study interdisciplinary theoretical and
methodological studies that make possible to understand the treatment of the
176
organization in the digital environment. It is understood that there is still a lack
of consistent theoretical bases that provide a more objective understanding of
semantic web within the scope of knowledge organization. Thus, it is of
fundamental importance investigations regarding the methodological support
that is being used within this domain for research involving the semantic web.
Thus the text discusses an analysis of what are the methodological procedures
used in works that study semantic web from the perspective of knowledge
organization. In order to do so, we retrieved works from GT2 - Knowledge
Organization of the Enancib (National Meeting of Research in Information
Science) stored in BENANCIB, so the analysis corpus contemplates 140 papers
that present the terms semantic web or semantic web in the full text. The
methodology used is content analysis to identify through the categories of a
posteriori analysis, what are the methodological procedures used in these
articles that work with semantic web within the OC. Two main methodology
were identified: content analysis and domain analysis. In content analysis we
explore concept in order to establish relationships and to understand
representation the representation of content in semantic web. From this, the use
of instruments as conceptual map and thesaurus. Domain analysis is used to map
sub-areas of the semantic web and terminologies to enable the construction of
controlled ontologies and vocabularies. For this, the literature review is based on
theories, such as General Theory of Terminology, Concept Theory, Theory of
Classification Facetada and Theories of Organization and Information Retrieval.
It is concluded that the methodologies identified in this study investigate
concepts, both at the level of terminological knowledge and at the level of
comprehension of the meaning of semantic web conceptual content. It is also
worth mentioning that articles were retrieved with poorly delimited
methodological procedures, which suggests larger studies on the application of
methods in the field of Information Science.
PERCEPÇÃO E MISINFORMATION: OS POSSÍVEIS
IMPACTOS DAS FAKE NEWS NA AÇÃO HUMANA
PERCEPTION AND MISINFORMATION: THE POSSIBLE
IMPACTS OF FAKE NEWS IN HUMAN ACTION
Comunicação Oral / Oral Communication
MORONI, Juliana.
UERJ
177
O objetivo deste trabalho é investigar a relação entre fake news,
affordances sociais e percepção-ação, no contexto filosófico-interdisciplinar.
Nesse sentido, o problema a ser analisado neste trabalho gira em torno da
seguinte questão: quais os impactos que a disseminação de fake news, as quais
são indicativas de affordances sociais disponíveis nos meios digitais, podem
causar na agency? Argumentaremos criticamente em defesa da hipótese de que
as fake news são informações falhas (misinformations), as quais advêm de
resultados da percepção incompleta (misperception). As fake news, enquanto
informações falhas (misinformations) disponíveis nos meios digitais,
proporcionam a emergência de padrões informacionais coletivos que podem
alterar a percepção de affordances sociais bem estabelecidas, direcionando as
ações dos seres humanos e, consequentemente, modificando os padrões
informacionais que constituem os seus nichos ecológicos. Nosso pressuposto
principal é o de que essas modificações ocorrem devido à disseminação e à
influência negativa da manipulação da informação - fake news - nas
propriedades de prospectividade e flexibilidade, bem como na coordenação
emergente relativa à agency. No que concerne às propriedades de
prospectividade e flexibilidade da agency, estudadas por Eleonor Gibson,
defenderemos a hipótese de que: em relação à prospectividade, que é a
propriedade antecipatória da ação, ela poderia ser prejudicada e diminuída no
ambiente virtual. Isso porque a manipulação das fake news pode comprometer a
antecipação da ação no que concerne à percepção da informação, o
direcionamento da ação e a atenção para características emergentes das diversas
situações experienciadas pelos usuários (as) das redes sociais. O mesmo poderia
ocorrer com a flexibilidade, a qual possibilita ao indivíduo encerrar uma ação
quando há circunstâncias desfavoráveis. Por não haver interação corporal direta
na web, na perspectiva ecológica, a prospectividade e a flexibilidade seriam
prejudicadas porque o agente não teria possibilidade de controle e nem da
escolha da ação devido a percepção da informação falha (misinformation) que é
característica das fake news. No que concerne à coordenação emergente,
estudada por Pacharie, é nossa hipótese que a manipulação da informação
caracterizada como fake news, ocasionaria maior controle externo das ações
individuais múltiplas e coordenadas. Isso porque a manipulação da informação
poderia prejudicar a ação sincronizada espontaneamente e involuntariamente
entre indivíduos. Isso ajuda os manipuladores de fake news a diminuírem a
individualidade de cada agente, diluindo-a em uma coletividade cega e
controlada virtualmente. Nesse sentido, consideramos que as fake news, ao
serem manipuladas, podem alterar a percepção-ação dos seres humanos e
consequentemente as relações coletivas nos seus nichos virtuais e ecológicos.
Isso porque as fake news, enquanto informações que conectam agentes aos seus
nichos, propiciam o estabelecimento de padrões de ação, os quais afetam o
sistema, criando pontos de instabilidade.
178
The objective of this paper is to investigate the relationship between
fake news, social affordances and perception-action, in the philosophical-
interdisciplinary context. In this sense, the problem to be analyzed in this work
revolves around the following question: what impacts does the dissemination of
fake news, which are indicative of social affordances available in digital media,
cause in agency? We will argue critically in defense of the hypothesis that fake
news are misinformation, which come from the results of misperception. Fake
news, while misinformation available in digital media, provide the emergence of
collective information patterns that can change the perception of well-
established social affordances, directing the actions of human beings, and
consequently modifying the informational patterns that constitute the their
ecological niches. Our main assumption is that these changes occur because of
the spread of fake news and their negative influence on the prospectivity and
flexibility properties, as well as on emerging agency coordination. Concerning
the prospectivity and flexibility properties of the agency studied by Eleonor
Gibson, we will defend the hypothesis that: in relation to prospectivity, which is
the anticipatory property of the action, it could be impaired and diminished in
the virtual environment. This is because the manipulation of fake news can
compromise the anticipation of the action regarding the perception of the
information, the direction of the action and the attention to emergent
characteristics of the diverse situations experienced by the users of the social
networks. The same could occur with flexibility, which enables the agent to put
an end to an action when there are unfavorable circumstances. Because there is
no direct body interaction on the web, from an ecological perspective,
prospectivity and flexibility would be impaired because the agent would have no
possibility of control and no choice of action due to the perception of the
misinformation that is characteristic of fake news. Concerning emerging
coordination studied by Pacharie, it is our hypothesis that the manipulation of
information characterized as fake news would lead to greater external control of
multiple and coordinated individual actions. This is because the manipulation of
information could harm action spontaneously and involuntarily synchronized
between individuals. This helps fake news manipulators to reduce the
individuality of each agent by diluting it in a virtually blind and controlled
collectivity. In this sense, we consider that fake news, when manipulated, can
alter the perception-action of human beings and consequently their collective
relations in their virtual and ecological niches. This is because fake news, as
information that connects agents to their niches, provide the establishment of
action patterns, which affect the system, creating points of instability.
POSSÍVEIS IMPACTOS DO BIG DATA NA DINÂMICA DAS
EMOÇÕES HUMANAS QUE ENVOLVEM EMPATIA
179
POSSIBLE IMPACTS OF BIG DATA IN THE DYNAMICS OF
HUMAN EMOTIONS INVOLVING EMPATHY
Pôster / Poster
NAKARYN, Emanuelly.
Unesp / Marília
Este trabalho tem como objetivo investigar os possíveis impactos da
proliferação das interações humanas, mediadas pelas tecnologias
informacionais, na emergência de relações que envolvem a empatia, fenômeno
comumente definido como a capacidade de se colocar no lugar do outro. Em
especial, iremos fundamentar nossa análise na caracterização de empatia
proposta por Frans de Waal (2010), que compreende essa emoção através de
uma perspectiva co-evolucionária. Em A era da empatia: lições para uma
sociedade mais gentil, de Waal sustenta que a origem da empatia estaria
relacionada a aspectos evolucionários e o seu desenvolvimento ocorreria de
forma adaptativa. Essa capacidade, natural em várias espécies animais e não
apenas na espécie humana, que envolve emoções relacionadas a amizade,
cuidado do outro, altruísmo, é compreendida enquanto um dos elementos
fundamentais para a preservação da vida de diversas espécies. Segundo de
Waal, podemos elencar como pilares dessas relações de empatia a sincronia
emocional e o mapeamento corporal entre diferentes indivíduos. Para ele, esses
elementos possibilitam o contágio emocional, o consolo e a adoção da
perspectiva do outro, que podem ser compreendidos enquanto elementos
componentes de processos empáticos. Cabe salientar que na caracterização de
empatia exposta por Frans de Waal, a observação do outro é de extrema
importância para a realização do mapeamento corporal, não estando a
observação restrita apenas à visual, mas envolvendo outras formas de percepção
como a olfativa, a tátil e a auditiva. Nesse sentido, tendo como pressuposto a
dificuldade, ou até a impossibilidade, da realização do mapeamento corporal nas
relações interpessoais mediadas pelas atuais tecnologias da comunicação,
propomos analisar o possível impacto da proliferação das interações mediadas
por redes sociais no processo de emergência da empatia entre os usuários das
redes sociais, como o Facebook. Utilizaremos como ferramenta de reflexão
dados fornecidos pelo artigo Experimental evidence of massive-scale emotional
contagion through social networks, no qual é apresentado um experimento
realizado pelo Facebook em 2012, que chega à conclusão de que o contágio
emocional é possível via redes sociais virtuais. Esse experimento deriva do
desenvolvimento do algoritmo de ranking utilizado pelo Facebook para filtrar o
conteúdo compartilhado pelos amigos do usuário e que será visualizado no Feed
de Notícias, e visava testar se os conteúdos emocionais eram mais envolventes
180
para os usuários. O artigo usa desse experimento para investigar se as pessoas
que tiveram contato com uma quantidade menor de posts com conteúdo
negativo iriam produzir status com maior quantidade de palavras positivas, o
que seria um indício do contágio emocional, entendido enquanto a transferência,
entre usuários da rede, de estados emocionais expressados textualmente.
Entendemos que a possibilidade do contágio emocional no Facebook não
equivale a dizer que a empatia pode emergir nas relações virtuais, dos usuários
das redes, do mesmo modo que pode emergir nas relações diretas entre os
agentes. Nossa hipótese é que um dos impactos da proliferação das interações
interpessoais por meio de redes digitais está relacionado ao grau de efetividade
das interações humanas que envolvem a empatia quando manifestada no âmbito
virtual, entendendo por efetividade (1) a ocorrência de contágio emocional por
uma quantidade significativa de tempo (em que a sincronia emocional seria
proporcional ao grau de sofrimento compartilhado) e (2) a realização de ações
indicadoras de empatia interpessoal. Conforme indica o experimento, uma das
camadas mais rudimentares dessa capacidade empática natural pode ser
manifestada mesmo sem a prática direta do mapeamento corporal, mas talvez
sua efetividade seja reduzida quando comparada a uma interação presencial
devido à forma pela qual essa capacidade, envolvendo a sincronia emocional e o
mapeamento corporal, se desenvolveu co-evolucionariamente.
This work has the goal of investigating the possible impacts of the
proliferation of human interactions, mediated by informational technologies, on
the emergence of relations that involve empathy, a phenomenon commonly
defined as the capacity to put oneself in the place of someone else. Especially,
we will ground our analysis in the characterization of empathy proposed by
Frans de Waal (2010), who understands that emotion through a coevolutionary
perspective. In The age of empathy: lessons for a more kind society, de Waal
advances that the origin of empathy is related to evolutionary aspects and its
development occurs in an adapive way. This capacity, natural in many animal
species and not only in the human specie, which involves emotions related to
friendship, care of the other, altruism, is understood as one of the fundamental
elements for the preservation of the life of many species. According to de Waal,
we may list as pillars of those relations of empathy the emotional synchrony and
the bodily mapping between different individuals. For him, those elements
enable emotional contagion, consolation and the adoption of the perspective of
the other, which may be understood as elements composing empathic processes.
One should empashize that in the characterization of empathy exposed by Frans
de Waal, the observation of the other is of extreme importance to the
performance of bodily mapping, observation being not restricted only to the
visual one, but involving other forms of perception such as olfative, tactile and
auditive. In this sense, having as pressuposition the difficulty, or even the
impossibility, of performing bodily mapping in the interpersonal relationships
181
mediated by the current communication technologies, we propose to analyse the
possible impact of the proliferation of interactions mediated by social networks
in the process of emergence of empathy among users of social networks, like
Facebook. We will use as a tool for reflection on the data provided by the article
Experimental evidence of massive-scale emotional contagion through social
networks, in which it is presented an experiment performed by Facebook in
2012, which comes to the conclusion that emotional contagion is possible via
virtual social networks. This experiment derives from the experimento of
ranking algorithm used by Facebook to filter the content shared by the users’
friends and that will be viewed in the news feed, and aimed on testing wether
emotional contents were more involving for users. The paper uses this
experiment to investigate if people that had contact with a smaller amount of
posts with negative content would produce statuses with a greater amount of
positive words, what would be an indication of emotional contagion, understood
as the transference, between users of the network, of emotional states textually
expressed. We understand that the possibility of emotional contagion in
Facebook does not equals saying that empathy may emerge in virtual relations,
from the users of the networks, the same way it may emerge in the direct
relations between the agents. Our hypothesis is that one of the impacts of the
proliferation of interpersonal relationships by means of digital networks is
related to the degree of effectivity of the human interactions that involve
empathy when manifested in the virtual scope, understanding by effectivity (1)
the occurrence of emotional contagion for a significative amount of time (in
which emotional synchrony would be proportional do the degree of shared
suffering) and (2) the performance of actions indicative of interpersonal
empathy. As the experiment indicates, one of the most rudimentary layers of
this natural empathic capacity may be manifested even withput the direct pratice
of bodily mapping, but maybe its effectivity is reduced when compared to a
presential interaction due to the form by which this capacity, involving
emotional synchrony and bodily mapping, developed coevolutionarily.
DADOS DE PESQUISA: EXTRAÇÃO DE PADRÕES E
PREDIÇÃO DE NOVOS TEMAS USANDO BIG DATA
RESEARCH DATA: PATTERNS EXTRACTION AND
RESEARCH SUBJECTS PREDICTION USING BIG DATA
Pôster / Poster
NAVARRO, Fabio Piola.
Unesp / Marília
182
Atualmente é comum relacionar big data com a grande quantidade de
dados coletados. No entanto, o fenômeno big data direciona e proporciona a
uma análise mais abrangente e minuciosa desse grande volume de dados
existente. Devido ao alto volume de dados gerados, os processos clássicos de
análise dos dados coletados necessitam de uma nova abordagem para a
compreensão e geração de informação. Este é o caso para o campo das pesquisas
científicas que além da velocidade na geração de dados possuem ainda grande
volume, além da intrínseca variedade destes dados. A E-Science é a área que
abriga todos estes estudos, e tem por definição estudar, analisar e melhorar os
métodos de pesquisa científica tendo por base estrutural o apoio de métodos e
processos computacionais orientados a dados. Big Scholarly Data (BDA) é o
termo criado para abarcar e analisar este novo fenômeno na área da ciência em
relação à pesquisa científica, ou seja, a grande quantidade de dados das mais
variadas formas dentro de um ambiente acadêmico de pesquisa. A BDA propõe
a geração de informação sobre: temas de pesquisa, autores, citações, figuras,
tabelas além de todo arcabouço colaborativo entre as partes. Assim, a hipótese
que se levanta é a de que a junção destas grandes áreas pode servir como
framework para análise e respostas a alguns problemas, como os acima
levantados, ou seja, o grande volume de dados, sua velocidade de geração e
ainda a variedade dos mesmos no contexto de dados da pesquisa acadêmica.
Neste sentido, este artigo tem por objetivo investigar os temas acima
relacionados e prover uma análise de como e quais métodos e processos
computacionais podem contribuir para que dados de pesquisa científica possam
ser mais bem aproveitados colaborativamente pela sociedade. Esta análise dos
métodos e processos passa inicialmente por um estudo de todo o contexto
teórico sobre a área em questão e também por quais tecnologias computacionais
podem cooperar para o cenário BDA-EScience.
It is currently common to relate big data with the large amount of data
collected, however, the big data phenomenon directs and provides an even more
comprehensive and thorough analysis. Due to the high volume of data
generated, the classical data analysis processes require a new approach to
understanding and generating information. This is the case for the field of
scientific research that besides the speed in data generation still have great
volume, besides the intrinsic variety of these data. E-Science is the area that
houses all these studies, and is by definition the study, analyze and improve
methods of scientific research based on the structural support of computational
methods and data-driven processes. The Big Scholarly Data (BDA) is the term
created to embrace and analyze this new phenomenon in the field of science in
relation to scientific research, that is, the vast amount of data of the most varied
forms within an academic research environment. It proposes the generation of
information based on: research topics, authors, citations, figures, tables and any
collaborative framework between the parties. The hypothesis is that the junction
183
of these large areas can serve as a framework for analysis and answers to some
problems, such as the above described, ie the large data volume, its generation
speed and the variety of them in the context of academic research data. In this
sense, this article aims to investigate the above topics and to provide an analysis
of how and what computational methods and processes can contribute to
scientific research data being better utilized collaboratively by society. This
analysis of the methods and processes initially passes through a study of the
entire theoretical context about the area in analysis and also by which
computational technologies can cooperate for the BDA-EScience scenario.
BIG DATA E FILOSOFIA: NOVOS DESAFIOS PARA OS
FILÓSOFOS
BIG DATA AND PHILOSOPHY: NEW CHALLENGES FOR THE
PHILOSOPHERS
Comunicação Oral / Oral Communication
NOGUEIRA, Danúbio Viana.
Unesp / Marília
O mundo atual vem testemunhando mudanças tecnológicas
significativas em velocidades espantosas, e que parecem acelerar cada vez mais.
A carga informacional a que estamos expostos no dia a dia, provavelmente
deixaria nossos avós e bisavós atônitos. Como resposta ao desafio representado
por esta quantidade massiva de informações, as organizações e corporações
criaram ou adotaram sistemas computacionais que se tornaram cada vez mais
complexos, e com o passar de apenas algumas décadas, o trabalho e as vidas das
pessoas parecem estar de tal forma conectados à tecnologia da informação, que
talvez seja difícil imaginar um futuro onde os computadores não desempenhem
papéis fundamentais à existência dos seres humanos. Atualmente, dentre os
sistemas computacionais complexos disponíveis em plena operação, há um tipo
que aparenta ser o mais avançado em termos de desenvolvimento tecnológico:
os Big Data. Em recente episódio envolvendo grandes corporações do ramo da
tecnologia da informação, este tipo de sistema tornou-se objeto da atenção das
autoridades norte-americanas, bem como do público em geral em nível
internacional, devido a questões ligadas à privacidade e ao comércio de dados.
Houve uma preocupação em saber até que ponto as informações pessoais podem
ser sondadas em busca de dados que possam revelar o perfil psicológico, as
preferências e as escolhas dos indivíduos. Para além das preocupações éticas
com a privacidade e a liberdade pessoais, os Big Data também podem
184
apresentar desafios e oportunidades aos governos e agências reguladoras, uma
vez que possam ter o poder de consolidar as informações sobre os indivíduos em
informações confiáveis a respeito das populações, mas que também possam
servir para criar meios de influenciar a opinião pública, trazendo consequências
políticas e sociais cuja extensão e profundidade ainda não são completamente
compreendidas. Nos campos da ciência e epistemologia, os Big Data talvez
apresentem uma nova ferramenta de apoio à investigação científica que, aliados
aos métodos já em utilização, podem auxiliar na análise de grande quantidade de
dados empíricos, ao passo que nas ciências humanas, podem representar um
método mais confiável de análise de dados, permitindo um nível de precisão e
velocidade nas pesquisas estatísticas, inéditos até recentemente. O objetivo deste
trabalho é apresentar o conceito de Big Data, e servir como introdução ao
debate sobre a relação entre os Big Data e a filosofia, através do levantamento
de questões relacionadas, tais como: o que são os Big Data, como surgiram e
qual o seu papel e relevância no mundo contemporâneo? Por que os Big Data
são relevantes para a filosofia e que tipos de problemas eles apresentam ao
debate filosófico? Que tipos de oportunidades e desafios estes sistemas podem
apresentar ao mundo do nosso tempo, e quais cuidados devem ser tomados ao se
utilizar estes tipos de tecnologias? As investigações a respeito destes tipos de
questionamentos talvez sejam de grande importância ao desenvolvimento e
utilização responsável das tecnologias que influenciarão nosso futuro.
Today’s world is witnessing significantly technological changes at an
amazing pace, and apparently they are accelerating even more. The
informational amount that we face every day, probably would make our
grandparents and grand-grandparents astonished. As a response to this massive
amount of information, the organizations and corporations had developed and
adopted information systems which became more and more complex, and in the
span of a few decades, the works and lives of people seems to be connected to
the information technology in such a way, that maybe is difficult to imagine a
future in which the computers don’t play a fundamental role in the human
existence. Presently, amongst these complex computing systems available for
full operation, there is a kind that seems to be the more advanced, concerning
the technological evolvement: the Big Data. In a recent episode involving big
corporations of the information technology business, this kind of systems have
become the object of attention to North-American authorities, and the general
public internationally, due to questions related to personal privacy and freedom
and to the data commerce. There was worrying in the sense of knowing at which
extent the personal informations can be probed in the search for personal data
that can reveal psychological profiles, preferences and choices of the
individuals. Beyond the worries about the ethics concerning privacy and
personal freedom, the Big Data can also present challenges and opportunities to
governments and regulation agencies, once they may have the power to
185
consolidate the information about the individuals into reliable informations
about the populations, but can also work for creating means to influence public
opinion, bringing political and social consequences which the extents and
deepness are still not fully understood. In the science and epistemology fields,
the Big Data maybe present a new tool for supporting scientific investigations,
that allied to the methods already in use, may assist in the analysis of big
amounts of empirical data, whilst in the humane sciences, they may represent a
more reliable method of data analysis, allowing a level of precision and speed in
the statistical surveys, unprecedented until recently. The objective of this work,
is to present the concept of Big Data, and serve as an introduction to the debate
about the relation between Big Data and philosophy, through the raising of
related questions, such as: what are the Big Data, how had they come to
existence, what are their roles and what are their relevance to the contemporary
world? Why the Big Data are relevant to the philosophy, and what kinds of
problems do they present to the philosophical debate? What kinds of
opportunities and challenges these systems may present to the world of our time,
and what cautions shall be taken when utilizing these kinds of technologies?
The investigations about these kinds of questions may be of great importance
for the responsible development and utilization of technologies that will
influence our future.
OCORRÊNCIAS DO CONCEITO "WEB SEMÂNTICA" NO GT2
DO ENANCIB: UMA ANÁLISE DE CONTEÚDO
OCCURRENCES OF THE "SEMANTIC WEB" CONCEPT IN
ENANCIB GT2: A CONTENT ANALYSIS
Pôster / Poster
NOVAES, Fernanda Carolina Pegoraro.
Unesp / Marília
MORAES, Isabela Santana de.
Unesp / Marília
DAVANZO, Luciana.
Unesp / Marília
MOREIRA, Walter.
186
Unesp / Marília
A Ciência da Informação, especificamente a área da Organização e
Representação do Conhecimento, é responsável por organizar e estruturar as
unidades do conhecimento por meio da elaboração de ferramentas que são
aplicadas com a perspectiva de melhorar a representação dos conceitos e, desse
modo, tornar mais precisa a recuperação da informação. Tendo-se isso em
mente e abordando as interfaces da web semântica, este trabalho objetiva
investigar as publicações relacionadas à temática, visando identificar e refletir
como está sendo tratada no Brasil. Desta forma, esta proposta caracteriza-se
como exploratória, descritiva e bibliográfica, destacando a análise de conteúdo
como principal método utilizado para a sua elaboração. O corpus de análise
constituiu-se de trabalhos científicos armazenados na BENANCIB que é a base
de dados do Encontro Nacional de Pesquisa em Ciência da Informação
(ENANCIB), especificamente no Grupo de Trabalho 2, Organização e
Representação do Conhecimento. A coleta de dados pautou-se no uso do termo
web semântica, no singular, nos idiomas português e inglês, tendo sido
aplicadas no texto completo. Recuperaram-se 75 artigos com web
semântica/semantic web. As categorias de análise identificadas foram:
conceitualização: trabalhos que abordam definições conceituais do termo
analisado; aplicação: trabalhos analisados em que foi possível identificar as
funções e utilidades da web semântica; base teórica: trabalhos que identificam
em que área de conhecimento os trabalhos buscam embasamento teórico. Na
categoria aplicação notou-se que a web semântica é utilizada para aumentar a
capacidade da máquina para trabalhar em cooperação com as pessoas; ainda
nessa categoria identificou-se que também pode ser utilizada para representação,
organização e descoberta da informação, com ontologias e esquemas de
linguagens, utilizando padrões de metadados na organização da informação na
web e com a utilização das tags, por exemplo, que são técnicas de otimização
para mecanismos de busca automática. Em conceitualização, os trabalhos
discorreram que web semântica não é uma web separada e sim uma extensão da
atual, em que a informação tem o significado definido, apresenta que a web
semântica é a evolução da web atual rumo a uma Internet inteligente constituída
de sistemas capazes de serem inteligíveis por máquinas e pessoas. Na categoria
base teórica, a ciência da computação foi o domínio que mais apareceu como
embasamento teórico nos artigos analisados, encontrou-se ainda como base
teórica a terminologia e linguística para auxiliar na indexação, facilitando a
organização e contribuindo com uma melhor recuperação da informação. Desta
forma, entende-se que o aumento do consumo de informações via Internet, é um
aspecto propulsor para o progresso dos serviços ofertados pela web semântica,
pois há a necessidade de uma melhor organização para posterior recuperação e
descoberta do conhecimento, entende-se que para isso necessite maior atenção
187
ao processo de indexação desses conteúdos informacionais, sobretudo à
contribuição que a indexação automática ou semiautomática, baseada em
processos linguísticos. Assim, é necessário que a Organização e Representação
do Conhecimento se envolva mais com as definições conceituais destes termos,
principalmente pelo fato do objeto de estudo desta área ser a informação e que
também assuma a responsabilidade de aplicação dessas tecnologias. Enfatiza-se
a utilização de instrumentos semânticos, que se fundamentam na descrição de
documentos e controle terminológico de termos semanticamente relacionados,
como por exemplo as ontologias e esquemas de linguagens que podem formar a
base para uma web inteligível por máquinas e pessoas concebendo um
entendimento comum em um determinado assunto para facilitar a recuperação e
uso da informação.
Information Science, specifically the area of Knowledge Organization
and Representation, is responsible for organizing and structuring the units of
knowledge through the elaboration of tools that are applied with the perspective
of improving the representation of concepts and, thus, making more need the
information retrieval. With this in mind and approaching the interfaces of the
semantic web, this work aims to investigate the publications related to the
theme, aiming to identify and reflect how it is being treated in Brazil. In this
way, this proposal is characterized as exploratory, descriptive and
bibliographical, highlighting content analysis as the main method used for its
elaboration. The corpus of analysis consisted of scientific works stored in
BENANCIB which is the database of the National Meeting of Research in
Information Science (ENANCIB), specifically in Working Group 2, Knowledge
Organization and Representation. Data collection was based on the use of the
term semantic web, in the singular, in the Portuguese and English languages,
and were applied in the full text. We retrieved 75 articles with web
semântica/semantic web. The categories of analysis identified were:
conceptualization: papers that deal with conceptual definitions of the term
analyzed; application: analyzed works in which it was possible to identify the
functions and utilities of the semantic web; theoretical basis: works that identify
in which area of knowledge the works seek theoretical basis. In the application
category it was noticed that the semantic web is used to increase the machine's
ability to work in cooperation with people; still in this category, it has been
identified that it can also be used for representation, organization and discovery
of information, with ontologies and language schemes, using metadata standards
in the organization of information on the web and using tags, for example,
optimization for automatic search engines. In the conceptualization, the papers
said that semantic web is not a separate web but an extension of the current one,
in which the information has the defined meaning, presents that the semantic
web is the evolution of the current web towards an intelligent Internet
constituted of systems that are intelligible to machines and people. In the
188
theoretical base category, computer science was the domain that most appeared
as a theoretical basis in the articles analyzed, it was also found as a theoretical
basis the terminology and linguistics to aid in the indexation, facilitating the
organization and contributing with a better information retrieval. In this way, it
is understood that the increase in the consumption of information through the
Internet, is a propulsive aspect for the progress of the services offered by the
semantic web, since there is a need for a better organization for later retrieval
and discovery of knowledge, it is understood that for this, needs more attention
to the process of indexing these informational contents, especially to the
contribution that automatic or semiautomatic indexing, based on linguistic
processes. Thus, it is necessary for the Knowledge Organization and
Representation to be more involved with the conceptual definitions of these
terms, mainly because the object of study in this area is information and also
assumes responsibility for the application of these technologies. Emphasis is
given to the use of semantic tools, which are based on the description of
documents and terminological control of semantically related terms, such as
ontologies and language schemes that can form the basis for a web intelligible
by machines and people conceiving a common understanding on a particular
subject to facilitate retrieval and use of information.
O FENÔMENO DAS FAKE NEWS E A TECNOLOGIA
BLOCKCHAIN ANALISADOS A PARTIR DA SEMIÓTICA DE
CHARLES S. PEIRCE
THE “FAKE NEWS” PHENOMENON AND BLOCKCHAIN
TECHNOLOGY ANALYZED FROM THE SEMIOTICS OF
CHARLES S. PEIRCE
Comunicação Oral / Oral Communication
OHLSON, Marcia Pinheiro.
USP
ROMANINI, Anderson Vinicius.
USP
Neste trabalho buscamos compreender o fenômeno contemporâneo das
“notícias falsas”, bem como as alternativas ao seu combate, especialmente a
tecnologia blockchain, tendo como fundamentação teórica a semiótica de
Charles S. Peirce. Dois fatos importantes marcaram o ano de 2016: a eleição do
189
presidente norte-americano Donald Trump e a decisão pela saída do Reino
Unido da União Europeia, fato que ficou conhecido como “Brexit”. Estes dois
acontecimentos evidenciaram uma das questões mais relevantes na discussão
atual sobre o futuro do jornalismo e da democracia: as notícias falsas, ou fake
news. O problema das fake news remete a uma discussão sobre o que é
“verdade” ou o que é “real”. Sendo assim, a semiótica peirceana nos oferece
instrumentos para uma análise consistente do fenômeno, uma vez que pressupõe
que fatos não são dissociados da experiência ou da percepção humanas. A
“verdade”, para Peirce, seria alcançada somente pela totalidade de crenças de
uma determinada comunidade científica, sendo a crença um estado confortável
que é atingido após uma fase de desconforto e irritação. Bolhas ideológicas são
criadas por algoritmos que, a partir do big data, governam o fluxo de dados na
rede, produzindo e direcionando conteúdos personalizados, tais como as fake
news. Estas bolhas mantêm os cidadãos em um estado de conforto, no qual suas
crenças, tendo ou não comprovação na realidade empírica, apaziguam o seu
incômodo e dificultam o caminho em direção ao conhecimento e à verdade.
In this work we seek to understand the contemporary “fake news”
phenomenon, as well as the alternatives to its combat, especially blockchain
technology, having as theoretical foundation the semiotics of Charles S. Peirce.
Two important events marked the year of 2016: the election of US President
Donald Trump and the United Kingdom´s decision to leave the European
Union, a fact that became known as "Brexit." These two events highlighted one
of the most relevant issues in the current discussion on the future of journalism
and democracy: fake news. The fake news problem refers to a discussion about
what is "truth" or what is "real". Thus, Peircean semiotics offers instruments for
a consistent analysis of the phenomenon, since it presupposes that facts are not
dissociated from human experience or perception. Peirce's "truth" would be
reached only by the totality of beliefs of a particular scientific community, and
belief is a comfortable state that is reached after a phase of discomfort and
irritation. Ideological bubbles are created by algorithms that, from the big data,
govern the data flow on the network, producing and directing personalized
content, such as fake news. These bubbles keep citizens in a state of comfort, in
which their beliefs, whether or not empirical proven, appease their annoyance
and hinder the path to knowledge and truth.
CONTRIBUIÇÕES DA EXPERIÊNCIA DO USUÁRIO NO
CONTEXTO DOS REPOSITÓRIOS DIGITAIS
USER EXPERIENCE CONTRIBUTIONS IN THE CONTEXT OF
TWO DIGITAL REPOSITORIES
190
Pôster / Poster
OLIVEIRA, Beatriz Rodrigues de.
Unesp / Marília
CONEGLIAN, Caio Saraiva.
Unesp / Marília
VIDOTTI, Silvana Aparecida Borsetti Gregorio.
Unesp / Marília
A Experiência de Usuário trata do modo como uma pessoa se sente
usando um serviço, sistema ou produto, e quando pensada no âmbito digital, tem
grande impacto em projetos de Arquitetura da Informação, uma vez que a
reflexão para promover uma melhor Experiência do Usuário pode aprimorar a
Arquitetura da Informação dos ambientes informacionais digitais. No contexto
da Ciência da Informação, os Repositórios Digitais estão se destacando como
um ambiente digital fundamental para a disseminação e a preservação dos
recursos digitais, ao reunirem de maneira organizada a produção científica de
uma instituição ou área temática. Contudo, em diversos casos, os Repositórios
Digitais apresentam interfaces e elementos que foram projetadas sem considerar
como o usuário se sente ao utilizar esse ambiente informacional digital,
promovendo uma experiência que por vezes não é satisfatória. Assim,
desenvolveu-se uma pesquisa exploratória bibliográfica com objetivo de trazer
elementos da Experiência do Usuário que auxiliem e melhorem a interação dos
usuários com os Repositórios Digitais. Enquanto resultados, identificou-se que
para um website proporcionar experiências positivas é necessário que este
atenda a alguns requisitos básicos, refletidos em sete facetas que podem
influenciar na experiência do usuário: Útil: desenvolver produtos e sistemas
úteis, devendo ser aplicadas soluções com aprimoramento contínuo; Utilizável:
oferecer facilidade de utilização continua; a usabilidade é necessária, mas não
suficiente para contemplar as necessidades do usuário; Desejável: utilizar
elementos de design emocional, como, imagem, marca que dão poder e valor de
identidade; Encontrável: oferecer navegação e objetos localizáveis permitindo
ao usuário encontrar o que precisa; Acessível: atender usuários com ou sem
deficiência; Credível: conquistar a confiança do usuário com relação ao
ambiente e ao conteúdo apresentado; Valioso: oferecer valor aos
patrocinadores, de modo a atender a satisfação do usuário; valorizar a missão
para organizações sem fins lucrativos. A análise dessas facetas no software de
repositórios Dspace apresentou alguns elementos críticos que podem ser
191
aprimorados, seguindo os princípios da Experiência de Usuário. Conclui-se que
um projeto de Arquitetura da Informação de um Repositório Digital na
plataforma do Dspace que considere as facetas da Experiência do Usuário, pode
aperfeiçoar o modo como os usuários interagem com os repositórios digitais,
contribuindo para uma melhora no ambiente e proporcionando um aumento na
satisfação do usuário durante a sua utilização.
User Experience is about how a person feels about using a service,
system, or product, and when thought in the digital realm, has a great impact on
Information Architecture projects, since reflection to promote a better User
Experience can information architecture of digital information environments. In
the context of Information Science, Digital Repositories are emerging as a
fundamental digital environment for the dissemination and preservation of
digital resources, by bringing together in an organized way the scientific
production of an institution or thematic area. However, in a number of cases,
Digital Repositories present interfaces and elements that were designed without
considering how the user feels when using this digital information environment,
promoting an experience that is sometimes not satisfactory. Thus, an
exploratory bibliographical research was developed aiming to bring elements of
the User Experience that help and improve the interaction of users with Digital
Repositories. As results, it was identified that for a website to provide positive
experiences it is necessary that it meet some basic requirements, reflected in
seven facets that can influence the user experience: Useful: to develop useful
products and systems, and to be applied solutions with continuous improvement
; Usable: offer continuous ease of use; usability is necessary but not sufficient to
address user needs; Desirable: use elements of emotional design, such as, image,
brand that give power and identity value; Findable: offer navigation and
localizable objects allowing the user to find what they need; Affordable: serving
users with or without disabilities; Credible: gain user confidence with respect to
the environment and the content presented; Valuable: offer value to sponsors, in
order to meet user satisfaction; mission for non-profit organizations. The
analysis of these facets in the DSpace repository software presented some
critical elements that can be improved, following the principles of the User
Experience. It is concluded that an Information Architecture project of a Digital
Repository on the DSpace platform that considers the facets of the User
Experience, can improve how users interact with digital repositories,
contributing to an improvement in the environment and providing an increase in
user satisfaction during its use.
OS ESTUDOS SOBRE O TEMA BIG DATA NA CIENCIA DA
INFORMAÇÃO NO BRASIL: ANÁLISE CIENTOMÉTRICA
(1972-2018)
192
THE STUDIES ABOUT THE BIG DATA THEME IN
INFORMATION SCIENCE IN BRAZIL: SCIENTOMETRICS
ANALYSIS (1972-2018)
Pôster / Poster
OLIVEIRA, Caroline Gomes de.
Unesp / Marília
HILÁRIO, Carla Mara.
Unesp / Marília
GRÁCIO, Maria Cláudia Cabrini.
Unesp / Marília
Estudos sobre questões relativas ao tema Big data no campo da Ciência
da Informação são de especial importância, dada a necessidade de reflexões e
desenvolvimento de propostas de recuperação, organização, armazenamento,
análise e disseminação de conjuntos de dados complexos e volumosos difíceis
de serem tratados com a estrutura tecnológica e conceitual existente. Em função
do exposto, esta pesquisa objetiva analisar e identificar a produção científica
brasileira no tema Big data no campo da Ciência da informação, disseminada
em veículos de comunicação científica nacionais. Mais especificamente, busca-
se realizar uma análise diacrônica do desenvolvimento das pesquisas no tema no
campo da Ciência da Informação e seus principais atores - pesquisadores e
periódicos nucleares - e a rede de colaboração científica subjacente aos estudos.
Utilizando como termo de busca a expressão “Big data”, buscaram-se na Base
de Dados Referencial de Artigos de Periódicos em Ciência da Informação o
conjunto de artigos publicados, sem restrição temporal. Para o conjunto de
artigos recuperados, registraram-se por ano: total de artigos publicados, as
palavras-chave mais utilizadas, os autores que mais se dedicam no tema, suas
respectivas áreas de atuação, e os periódicos nucleares na disseminação dos
estudos sobre Big Data. Identificou-se um total acumulado até 2018 de 81
artigos publicados sobre o tema na Ciência da Informação, os quais se iniciaram
em 1995. O ano de 2016 foi aquele com maior atenção dedicada aos estudos
sobre Big Data nos periódicos brasileiros da Ciência da Informação,
correspondendo a 19,1% do total das publicações. Em 2004, a produção de
193
estudos em Big Data na Ciência da Informação brasileira ganha um ponto de
inflexão com o volume de cinco artigos publicados, com um ápice em 2008,
com sete publicações, e o maior numero de publicações em 2016. As palavras-
chave mais utilizadas além de "Big Data" foram: "Ciência da Informação" em
24 artigos; "gestão da informação" em 8 artigos; "Biblioteconomia" e "Cientista
de Dados" em 5 artigos cada. Além disso, todos os autores com atuação
destacada no tema têm desenvolvido suas pesquisas em coautoria, com suas
publicações, predominantemente, iniciando em 2010 até os dias atuais.
Finalizando, foi possível observar que, apesar da relevância do tema para o
campo da Ciência da Informação, as pesquisas em Big Data no Brasil são
recentes, concentradas na última década e de pouca expressividade quantitativa.
Em continuidade, considera-se relevante estender a análise para outros
contextos de disseminação das pesquisas brasileiras em Ciência da Informação,
como as bases de dados multidisciplinares, Scopus e Web of Science, a fim de
se obter uma compreensão mais ampla da ciência brasileira em Ciência da
Informação no tema Big Data.
Studies about Big data issues in Information Science field are
especially important because of the needs for reflection and development of
research about retrieval, organization and storage of information, as well
dissemination and analysis of a complex and large data collection, this one
considered difficult to treat in a technological and conceptual structure.
Thinking about that, this research goal are to analyze and identify the Brazilian
scientific production about Big data in Information science field, which were
disseminated in national scientific communication vehicles. It also aims to do a
diachronic analysis of research development in Big Data from Information
Science field, to identify the main actors (authors and nuclear journals) and
drawing the scientific collaboration network underlying this topic. The scientific
production was searched in the Reference Database of Periodical Articles in
Information Science from "Big data" term, without choose a temporal
restriction. In the retrieved papers, the following information were registered:
total number of papers published, the most frequently used keywords, the
authors who dedicated themselves to study this topic, their activity areas, and
the nuclear journals which disseminated studies about Big Data. The total of
papers accumulated were 81 papers up to 2018. The 2016 was the year with the
greatest attention devoted to Big Data studies in the Brazilian journals of
Information Science, corresponding to 19.1% of all scientific production. In
2004, the research about this topic had an inflection point with 5 published
papers and a apex in 2008 with seven papers, and then the largest publication
number 2016. About the keywords, most used besides "Big Data" were:
"Information Science" found in 24 papers; "information management" found in
8 papers; and "Librarianship" and "Data Scientist" in 5 articles each. In addition,
all authors with outstanding performance in this topic have developed their
194
research in co-authorship and their publications were predominantly started in
2010 until nowadays. To sum up, it's possible observes that despite subject
relevance for Information Science field, the research about Big Data in Brazil
are recent and still with less expressivity. They are also concentrated in the last
decade. In conclusion, to extend the analysis to another contexts or information
vehicle in Brazilian Information Science research is considered relevant, such as
multidisciplinary databases Scopus and Web of Science, in order to have an
open view about this topic developed by Brazilian researchers in international
databases.
TRATAMENTO TEMÁTICO DA INFORMAÇÃO EM SUA
PERSPECTIVA FORMATIVA
THEMATIC TREATING OF INFORMATION IN ITS
FORMATIVE PERSPECTIVE
Pôster / Poster
OLIVEIRA, Laís Pereira de.
Unesp / Marília
MARTÍNEZ-ÁVILA, Daniel.
Unesp / Marília
Discorre sobre a formação intelectual e técnica em tratamento temático
da informação no contexto biblioteconômico, entendendo que a ação
profissional se pauta, sobretudo, a partir de tal universo formativo. Enquanto
resultado de projeto de pesquisa voltado às concepções teóricas, técnicas e
práticas em organização e tratamento da informação, o presente trabalho se
estabelece sobre a seguinte problemática: qual é a perspectiva formativa em
tratamento temático da informação presente nos cursos de graduação em
Biblioteconomia ofertados no Brasil? Parte-se da hipótese inicial de que a
formação em tratamento temático se orienta a partir dos processos técnicos
inerentes ao eixo, em detrimento dos instrumentos e metodologias de apoio à
sua condução. Pela apreciação dos projetos pedagógicos dos cursos a pesquisa
objetiva analisar a perspectiva formativa em tratamento temático da informação
presente nesse universo. O projeto pedagógico reflete o corpus de disciplinas
distribuídas na matriz curricular e as ementas com os conteúdos trabalhados,
atuando como norteador da formação em Biblioteconomia ofertada no contexto
investigado. Reúne conteúdos teóricos fundantes que permitem compreender a
195
estrutura curricular observada nos cursos. Como forma de avançar nas
discussões estabelecidas em torno desse processo nuclear em Biblioteconomia e
Ciência da Informação – para além de suas bases conceituais e aplicadas
refletidas na literatura produzida e na prática profissional – a pesquisa busca em
termos específicos: identificar as disciplinas pertencentes à dimensão temática
de organização da informação; examinar os conteúdos trabalhados nas
disciplinas; e, evidenciar as instâncias do tratamento temático dimensionadas
em cada formação ofertada. Justifica-se o presente trabalho em termos práticos
pela importância de investigar as bases sob as quais se estabelece a formação em
Biblioteconomia, sobretudo em termos de seus processos técnicos fundamentais
à ação e atuação na área, o que permite compreender os desdobramentos na
prática profissional estabelecida e possibilita ainda, reconhecer em que medida
os enlaces representativos do eixo técnico de formação sustentam o fazer do
bibliotecário. Mais do que isso, representa contribuição em âmbito teórico por
se voltar a um assunto basilar na Biblioteconomia e Ciência da Informação
como é o tratamento da informação, buscando revisitá-lo e amplificar
concepções teórico-conceituais mediante exploração de um aspecto nem sempre
pautado nas pesquisas, que é a perspectiva da formação nesse eixo.
Metodologicamente, constitui estudo descritivo com abordagem quanti-
qualitativa. O referencial se estrutura a partir de autores como Danuello e
Guimarães (2005), Guimarães (2009), Dias e Cervantes (2013), Sousa e Fujita
(2013), Tartarotti (2014), Braz e Carvalho (2017) e Dal’Evedove e Fujita
(2017). Estabelece discussão sobre os resultados a partir de pesquisa e análise
documental prévia, em vias de demonstrar caminhos que orientam a formação
em tratamento temático na graduação em Biblioteconomia.
This proposal discusses the intellectual and technical education in
subject representation in the context of library science. We understand that the
professional activities in this regard are based on their formative universe. As a
result of a research project focused on the theoretical aspects, techniques and
practices in knowledge organization and subject representation, the research
question of this is proposal is: what are the characteristics of teaching in subject
representation in the Brazilian undergraduate programs in Library Science? Our
hypothesis is that teaching in subject representation is guided by the technical
processes that are inherent to the topic in detriment of the instruments and
methodologies that support it. For the evaluation of the pedagogical projects of
the programs, our aim was to analyze the characteristics of the teaching in
subject representations within this universe. The pedagogical project includes
the courses distributed in the curriculum and the summary of contents, acting as
guide of the education in Library Science. It brings together the foundational
theoretical contents that allow to understand the curricular structure in the
programs. As a way to move forward in the discussions around this process in
Librarianship and Information Science, in addition to its conceptual and applied
196
bases in the literature and professional practice, our objectives are: to identify
the courses that belong to the subject dimension of information organization; to
examine the contents in the courses; and to evidence the instances of subject
representation in each training. The proposal is justified in practical terms by the
importance of investigating the bases under which education in Library Science
is established, mainly in terms of its technical processes that are fundamental to
the action and activity in the area. This allows to understand the differences in
the established professional practice and it also makes it possible to recognize to
what extent the links to the technical training support the librarian's work. More
than that, it represents a theoretical contribution for revisiting such a
fundamental subject in Librarianship and Information Science as subject
representation, aiming to expand theoretical-conceptual conceptions by
exploring an aspect that is not always based on research such as training.
Methodologically, the framework is based on authors such as Danuello and
Guimarães (2005), Guimarães (2009), Dias and Cervantes (2013), Sousa and
Fujita (2013), Tartarotti (2014), Braz and Carvalho (2017), and Dal'Evedove
and Fujita (2017). It relates to the results of previous research and documentary
analysis in order to demonstrate the ways that guide the training in subject
representation in the undergraduate programs in Library Science.
ARQUIVO PÚBLICO NO CONTEXTO DAS CIDADES
INTELIGENTES
PUBLIC ARCHIVE IN THE CONTEXT OF SMART CITIES
Pôster / Poster
OLIVEIRA, Taynara Almeida de.
Unesp / Marília
CALDAS, Rosangela Formentini.
Unesp / Marília
Os centros urbanos do século XXI são espaços que, além de polos
sociais, culturais e econômicos, possibilitam a inovação de produtos e serviços
em escala internacional. O investimento em infraestrutura proporciona a
disseminação das tecnologias de informação e comunicação, contribuindo com a
administração desses locais. A gestão no âmbito público das cidades é
responsável por avanços na saúde, economia, transporte, educação e política.
Portanto, localidades que possuem medidas voltadas para a elaboração de
197
políticas públicas e planos estratégicos de ação demonstram excelência nos
serviços prestados à população. O conceito de smart cities ou cidades
inteligentes destaca-se por idealizar o desenvolvimento econômico, social e
cultural baseado em aspectos ligados à informação, dados e conhecimento. Para
tanto, o investimento em tecnologias, informação e comunicação é tido como
prioridade para o Poder Público. Além disso, as regiões inteligentes prezam
para que a população seja politicamente participativa e fomente as discussões
acerca de medidas para a progressão urbana, por meio de pesquisas científicas e
debates sociais. Neste sentido, as cidades inteligentes poderiam possuir centros
referenciais de informação, uma vez que estes proporcionam diretrizes e
embasamento para a criação de pesquisas e estudos sobre questões ligadas à
cidade, administração e desenvolvimento urbano, auxiliando no alcance
eficiente e eficaz de melhores condições de subsistência e desenvolvimento
humano e social. Os arquivos públicos, responsáveis por custodiar a
documentação e informação provenientes das atividades administrativas dos
órgãos públicos, subsidiam a construção de conhecimentos e a efetiva gestão
dessas instituições e de seus serviços. Talvez, os arquivos sendo entendidos
como centros de informação poderiam proporcionar uma melhoria nos aspectos
ligados ao desenvolvimento das regiões em prol de avançar no caminho das
cidades inteligentes. Ao se considerar o potencial estratégico relacionado a
gestão e planejamento que a informação arquivística possui, pressupõe-se que é
fundamental a sua atuação direta e efetiva nas tomadas de decisões
governamentais referentes ao planejamento das regiões inteligentes. Dessa
forma realizou-se um levantamento das cidades ditas inteligentes no contexto
ibero-americano, averiguando quais as características das smart cities e
identificando a contribuição que os arquivos públicos poderiam proporcionar
nessas regiões. A abordagem do estudo é qualitativa, do tipo descritiva e
exploratória. O universo de pesquisa são os arquivos localizados nas cidades
inteligentes da ibero-américa. Os arquivos públicos podem auxiliar em projetos
e práticas ligados à melhoria das cidades e regiões inteligentes. Para tanto, é
necessário que a visão sobre essas unidades de informação seja revisitada,
entendendo-as como instituições que proporcionam subsídios para o
desenvolvimento econômico, social, cultural e político. Estudos sobre cidades
inteligentes ainda são escassos no Brasil, principalmente na área de Ciência da
Informação. Desta forma, este trabalho pode colaborar com o fomento à novas
discussões e pesquisas acerca da temática.
The urban centers of the 21st century are spaces that, in addition to
social, cultural and economic poles, enable the innovation of products and
services on an international scale. The investment in infrastructure provides the
dissemination of information and communication technologies, contributing to
the administration of these places. Public management of cities is responsible
for advances in health, economy, transportation, education and politics.
198
Therefore, localities that have measures aimed at the elaboration of public
policies and strategic plans of action demonstrate excellence in the services
provided to the population. The concept of smart cities stands out for idealizing
economic, social and cultural development based on aspects related to
information, data and knowledge. For that, the investment in technologies,
information and communication is considered a priority for the Public Power. In
addition, smart regions are keen to ensure that the population is politically
participatory and encourages discussions about measures for urban progression,
through scientific research and social debates. In this sense, smart cities could
have reference centers of information, since these provide guidelines and
foundation for the creation of research and studies on issues related to city,
administration and urban development, helping in the efficient and effective
reach of better subsistence conditions and human and social development.
Public archives, responsible for guarding the documentation and information
from the administrative activities of public agencies, subsidize the construction
of knowledge and the effective management of these institutions and their
services. Perhaps the archives being understood as information centers could
provide an improvement in the development aspects of the regions in order to
advance the path of intelligent cities. When considering the strategic potential
related to the management and planning that the archival information has, it is
assumed that its direct and effective action in the governmental decision-making
regarding the planning of the intelligent regions is fundamental. In this way a
survey of smart cities in the Ibero-American context was carried out,
ascertaining the characteristics of smart cities and identifying the contribution
that public archives could provide in those regions. The study approach is
qualitative, descriptive and exploratory. The research universe is the files
located in the smart cities of Ibero-America. Public archives can aid in projects
and practices linked to the improvement of smart cities and regions. To do so, it
is necessary that the vision on these units of information be revisited,
understanding them as institutions that provide subsidies for economic, social,
cultural and political development. Studies on smart cities are still scarce in
Brazil, especially in the area of Information Science. In this way, this work can
collaborate with the fomentation to the new discussions and research on the
subject.
O BIG DATA NO DESENVOLVIMENTO DA INDÚSTRIA 4.0:
NOVAS PERSPECTIVAS PARA O EMPREENDEDORISMO
ACADÊMICO
THE BIG DATA IN THE DEVELOPMENT OF INDUSTRY 4.0:
NEW PERSPECTIVES TO ACADEMIC
ENTREPRENEURSHIP
199
Comunicação Oral / Oral Communication
OTTONICAR, Selma Leticia Capinzaiki.
Unesp / Marília
ATAYDE, Gisele Rodrigues.
USP
SANTA EULALIA, Luis Antonio de.
Universidade de Sherbrooke / Canadá
A quarta revolução industrial, também conhecida como indústria 4.0,
tem trazido mudanças para as organizações contemporâneas. A principal
transformação é a produção massiva de dados e informações, o chamado big
data. No contexto da indústria 4.0 as pessoas e os objetos produzem dados, por
isso os profissionais necessitam saber usá-los para tomar decisões eficazes. Com
isso, defende-se que essas novas transformações podem impulsionar o
empreendedorismo entre alunos universitários a medida que vêm nas lacunas do
contexto novas oportunidades de negócios. Com essas reflexões, o problema de
pesquisa é de que maneira o big data impulsionou a indústria 4.0? Como esses
novos temas podem ser utilizados para estimular o empreendedorismo
acadêmico? Assim, o objetivo é refletir de que maneira o big data contribui com
a aplicação da indústria 4.0 e verificar como essas temáticas contribuem no
empreendedorismo acadêmico. A metodologia envolve uma revisão
bibliográfica sobre os temas big data, indústria 4.0 e o empreendedorismo
acadêmico. A partir da metodologia construiu-se um modelo a fim de
demonstrar essas inter-relações. A discussão aponta que a quarta revolução
industrial tende a modificar os modos de produção, a estrutura organizacional e
a economia dos países. Além disso, a produção massiva de dados estimula o
desenvolvimento de negócios que atuam nessa área e o aumento da procura por
novas profissões, como é o caso dos analistas de negócios, de inteligência
competitiva e organizacional e de pessoal competente para interpretar as
informações. Essas demandas contribuem com o empreendedorismo acadêmico,
principalmente nos cursos de gestão empresarial, engenharias, biblioteconomia
e arquivologia. As considerações finais demonstram que apesar da quarta
revolução industrial ter como consequência o desaparecimento de profissões,
principalmente aquelas que estão no chão de fábrica substituídos pelas
máquinas, há novas demandas profissionais e de negócios que estão cada vez
mais relacionados com a busca, interpretação, análise, organização e
disseminação dos dados e informações.
200
The fourth industrial revolution (industry 4.0) has brought some
changes to contemporary organizations. The main change is the production of
data and information, also called as big data. In the context of industry 4.0
people and objects produce data and information. Because of that, professionals
need to use them for decision making. These transformations can encourage
academic students because they realize the gaps of the context as business
opportunity. Based on these ideas the research problems are: How does big data
stimulate the industry 4.0? How can these themes be used to encourage
academic entrepreneurship? The purpose of this paper is to discuss how bid data
contributes to the development of industry 4.0. Furthermore, it aims to verify
how those themes encourage academic entrepreneurship. The methodology
involves a bibliographic review about big data, industry 4.0 and academic
entrepreneurship. The methodology allowed the construction of a model to
demonstrate the relationship between these themes. The discussions showed that
the fourth industrial revolution modifies the production, the organizational
structure and the economy of some countries. Furthermore, the massive
production of data encourages the development of business and the emerging of
new professional fields, such as business analysts, competitive and
organizational intelligence. They need skilled professionals to interpret the
information. Those demands contribute to the academic entrepreneurship, such
as business management, engineering, library and archiving fields. The
conclusions illustrated that despite the fourth industrial revolution has the
disappearance of some professions, there are new business and professional
demands related to data and information seeking, interpretation, analysis,
organization and dissemination.
ANÁLISE DE BIG DATA: O HADOOP SOB A PERSPECTIVA
DA CIÊNCIA DA INFORMAÇÃO
BIG DATA ANALYSIS: HADOOP UNDER THE AEGIS OF
INFORMATION SCIENCE
Comunicação Oral / Oral Communication
PADUA, Mariana Cantisani.
Unesp / Marília
OLIVEIRA, João Augusto Dias Barreira e.
Unesp / Marília
201
NAKANO, Natália.
Unesp / Marília
JORENTE, Maria José Vicentini.
Unesp / Marília
O Big Data (BD) pode ser entendido como um grande volume de
informação de alta velocidade e/ou ativos informacionais, associado com as
propriedades de variedade, volume, velocidade, variabilidade, complexidade e
valor. Por variedade, entende-se que os dados são produzidos em diferentes
categorias, como dados brutos, dados estruturados, semiestruturados e não
estruturados, o que os tornam difíceis de serem manipulados por sistemas
analíticos tradicionais. Embora volume seja a característica do BD, não existe
um volume mínimo para se considerar ou não BD. Velocidade se refere não
apenas à velocidade dos dados recebidos, mas à velocidade no qual os dados
fluem. Variabilidade se refere às inconsistências do fluxo de dados. A
característica da complexidade consiste nas tarefas envolvidas para vincular,
combinar, limpar e transformar os dados de diversas fontes, bem como conectar
e correlacionar relacionamentos e hierarquias. Por sua vez, o valor está
associado às consultas que podem ser realizadas aos dados armazenados e
filtrados, e a utilização dessas consultas nas tomadas de decisões por diferentes
esferas da sociedade. O BD possuiu potencial para verificar e analisar insights
seja de um único indivíduo ou de uma amostra de uma população específica e
tem atraído, recentemente, interesse de acadêmicos e de profissionais de
diferentes áreas. O Big Data Analytics (BDA) é uma tendência para a construção
de informações valiosas de BD, pois a prática de análise de dados pode trazer
insights para diversos setores da sociedade. O processo de análise, incluindo a
implantação e o uso de ferramentas BDA, é visto pelas organizações como um
instrumento para melhorar a eficiência operacional, com grande potencial
estratégico, para impulsionar novos fluxos de receita e obter vantagens
competitivas em relação aos concorrentes de negócios. Nesse contexto, o
objetivo desse artigo é apresentar o Big Data e o Hadoop para Análise de BD
sob a perspectiva e para os profissionais da informação. Trata-se de pesquisa
teórica-exploratória que busca analisar os conceitos essenciais para que os
profissionais da informação se familiarizem com o fenômeno Big Data e seus
recursos. Embora os recursos utilizados pelo BD sejam por sua natureza de
domínio da Ciência da Computação, é imperativo que os profissionais da
Ciência da Informação dominem determinados conceitos para poderem refletir
sobre os impactos sociais desse fenômeno. Dada a natureza significativa do BD
e do BDA, este artigo apresenta a tecnologia Big Data, juntamente com a
apresentação de projetos existentes em Big Data Analytics. Os vários desafios e
202
problemas na adaptação e aceitação da tecnologia Big Data, suas ferramentas
(Hadoop) também são discutidas, juntamente com os problemas que o Hadoop
enfrenta. A análise apresentada neste artigo identificou estudos de pesquisa
relevantes de Big Data que contribuíram conceitualmente e empiricamente para
a expansão e a acumulação de riqueza intelectual para o Big Data Analytics.
Big Data (BD) can be understood as large volume of high-velocity
information and/or information assets, associated with the properties of variety,
volume, velocity, variability, complexity and value. By variety, it is understood
that data are produced in different categories, such as raw data, structured, semi-
structured and unstructured data, making them difficult to be manipulated by
traditional analytical systems. Although volume is the characteristic of BD,
there is no minimum volume to be considered as BD. Velocity refers not only to
the speed the data is received, but to the speed at which the data flows.
Variability refers to data flow inconsistencies. The complexity characteristic
consists of the tasks involved to link, combine, clean and transform data from
multiple sources, as well as to connect and correlate relationships and
hierarchies. In turn, value is associated with queries that can be made to stored
and filtered data, and the use of such queries in decision-making by different
spheres of society. BD has the potential to verify and analyze insights either
from a single individual or from a sample from a specific population and has
recently attracted interest from academics and practitioners from different areas.
Big Data Analytics (BDA) is a trend for building valuable BD information
because the practice of data analysis can bring insights to various sectors of
society. The process of analysis, including the deployment and use of BDA
tools, is seen by organizations as a tool to improve operational efficiency with
great strategic potential to drive new revenue streams and gain competitive
advantage over business competitors. In this context, the objective of this article
is to present Big Data and Hadoop for DB Analysis from the perspective and for
information professionals. It is a theoretical-exploratory research that seeks to
analyze the essential concepts so that information professionals become familiar
with the Big Data phenomenon and its resources. Although the resources used
by the BD belong by nature to Computer Science domain, it is imperative that
Information Science professionals master certain concepts in order to reflect on
the social impacts of this phenomenon. Given the significant nature of BD and
BDA, this article introduces Big Data technology along with the presentation of
existing Big Data Analytics projects. The various challenges and problems in
adapting and accepting Big Data technology, its tools (Hadoop) are also
discussed, along with the problems that Hadoop faces. The analysis presented in
this paper identified relevant research studies of Big Data that contributed
conceptually and empirically to the expansion and accumulation of intellectual
value for Big Data Analytics.
203
INFORMAÇÃO E LINGUAGEM: NATURALIZAÇÃO DA
SEMÂNTICA E APRENDIZADO
INFORMATION AND LANGUAGE: NATURALIZATION OF
SEMANTICS AND LEARNING
Comunicação Oral / Oral Communication
PANTALEÃO, Nathália Cristina Alves.
Unicamp
Neste trabalho analisaremos o papel da informação na hipótese da
naturalização da semântica. Para tanto, utilizaremos os trabalhos de Dretske
(1981) que explicam a passagem da sintaxe à semântica a partir de uma teoria
informacional. Para Dretske, os signos são prenhes de informação e carregam
diversas partes dela. A função da mente, então, seria reconhecer objetos e
eventos no mundo identificando suas propriedades informacionais. Nesse
contexto, uma abordagem Naturalista da semântica (DRETSKE, 1981, 1988;
FODOR, 1987, 1990) é um produto de fatos naturais tais como a conexão entre
veículos de pensamento (símbolos) e seu conteúdo, que ocorre sem a mediação
de conceitos Intencionais. Dessa forma, a informação a respeito do aspecto
semântico da linguagem, isto é, o significado, está objetivamente e naturalmente
presente, dependendo apenas de uma consciência representativa para
“interpretá-la” e torná-la útil. De acordo com Dretske, isto é possível enquanto
haja um fluxo informacional entre a fonte (o mundo) e o receptor (sujeitos).
Ademais, a informação existiria no ambiente objetivamente como um elemento
natural constituinte do mundo, mas não o significado. A semântica, então,
envolve um processo representativo, que por sua vez requer um período de
aprendizado. Por exemplo, F apenas significa F quando um conjunto de F e não-
F são expostos à condições adequadas à atribuição de conteúdo semântico a F.
Em tais condições, faz sentido tomar o conceito de F como significando F.
Neste sentido, o que garante a legitimidade da relação entre conceito e conteúdo
semântico é uma relação nômica natural, isto é, naturalmente F e o significado
de F estão relacionados, mas eles precisam de um objeto representacional para
apontar para tal relação. Neste sentido, o conteúdo semântico envolve
mecanismos de representação que são desenvolvidos pelo aprendizado do que
ocorre em uma certa temporalidade. Por fim, sugerimos que o significado está
além das relações naturais, uma vez que precisa da figura de um sujeito
representacional. Assim, sugerimos, na esteira de Dretske, considerá-lo uma
propriedade emergente que depende da representação e do aprendizado
envolvendo processos de ajuste e correção e ambientes com informação
204
dinâmica. A partir desta proposta vem um resultado possível: (i) aprender e
atribuir significado podem não ser cocneitos naturais mas produtos emergentes
de relações cognitivamente saturadas em um ambiente necessariamente grande e
informacionalmente rico onde potencialidades linguísticas podem ser
alcançadas.
In this paper we will analyze the role of information in the hypothesis
of the naturalization of semantics. For this, we will use the works of Dretske
(1981) that explains the passage from syntax to semantics from an informational
theory. For Dretske, the signs are pregnant with information and carry several
pieces of it. The function of the mind, then, would be to recognize objects and
events in the world by identifying their informational properties. In this context,
Naturalistic approach of semantics (DRETSKE, 1981, 1988; FODOR, 1987,
1990) is a product of natural facts such the connection between thought-vehicles
(symbols) and their contents, which occurs without the mediation of Intentional
concepts. In this way, information concerning the semantic aspect of language,
that is, meaning, is objectively and naturally present, depending only on a
representative consciousness to "interpret" it and make it meaningful. According
to Dretske, this is possible insofar as there is an informational flow between
source (world) and receiver (subjects). Furthermore, information would exist in
the environment objectively as a natural element constituent of the world, but
not meaning. Semantics, then, involves a representative process, which in turn
requires a learning period.For example, F only means F when a set of F and not-
F are exposed in conditions adequate to the attribution of semantic content to F.
In such conditions, it makes sense to take the concept of F as meaning F. In this
sense, what guarantees the legitimacy of the relation concept-semantic content is
a natural nomic relation, that is, naturally F and the meaning of F are related, but
they need a representational subject to point out such relation. In this sense, the
semantic content involves mechanisms of representations that are developed by
learning that occurs in a certain temporality. Finally, we suggest that the
meaning is beyond natural relations, since it needs the figure of a
representational subject. Thus, we suggest, in the wake of Dretske, to consider it
an emergent property that depends on representation and learning involving
adjustment and correction processes in dynamic information environments.
From this proposal comes a possible result: (i) learning and assigning meanings
may not be natural concepts but emerging products of cognitively saturated
relationships in a necessarily large and informational rich environment where
linguistic potentialities can be attained.
REFLEXÕES SOBRE A AÇÃO COLETIVA EM TEMPOS DE
BIG DATA: CONTRIBUIÇÕES SEMIÓTICAS
205
REFLECTIONS ON COLLECTIVE ACTION IN TIMES OF BIG
DATA: SEMIOTIC CONTRIBUTIONS
Pôster / Poster
PASCOAL, Valdirene Aparecida.
Unesp / Marília
Poderia a reflexão filosófica colaborar para um estudo da influência das
tecnologias digitais na ação coletiva? Na tentativa de responder essa questão,
investigaremos, inicialmente, a relação entre informação e ação, sugerindo uma
possível conexão entre senso comum e bom senso, mediada pela filosofia
proposta por Michel Debrun. O objeto da filosofia, segundo Debrun, é
alicerçado por problemas que marcam o tempo presente. A partir dessa
perspectiva, refletiremos sobre possíveis consequências éticas da influência das
tecnologias digitais na ação coletiva. Argumentamos que a reflexão filosófica
pode explicitar problemas decorrentes da manipulação de informação difundida
nas redes sociais, colaborando na construção de um caminho para a ação
coletiva consciente, mais autônoma, e menos direcionada por ferramentas de
controle. Argumentamos também que a reflexão filosófica, com base na
proposta de Debrun, pode vir a ser uma alternativa para difundir o bom senso,
transformando a própria filosofia em um instrumento de força social e política
para o estudo da relação entre informação e ação autônoma. A seguir, nos
voltaremos à semiótica peirceana que caracteriza a informação enquanto um
processo. Peirce elabora um conceito de informação a partir de três categorias
fenomenológicas que se relacionam entre si: primeiridade, secundidade e
terceiridade. Essas categorias fundamentam e estruturam os fenômenos
percebidos. Nesse contexto, a informação aparece como um processo de
comunicação de um hábito ou forma incorporado no ambiente, em que o signo
faz a mediação entre objeto e interpretante. A correlação entre signo, objeto e
interpretante, permeia a noção de informação, através da Teoria Geral dos
Signos, elaborada por Peirce. Tendo esclarecido a noção de informação proposta
por Peirce, que fundamenta o conceito de informação genuína, é possível que
consigamos entender o papel que a informação desempenha na sociedade atual.
Algumas notícias, que nem sempre condizem com fatos, mas que são revestidas
de artifícios que nos induzem a acreditar no contrário, são cada vez mais
compartilhadas nas redes digitais. Elas, quando combinadas com ferramentas
que utilizam os Big Data, podem ter impactos notáveis na informação
transmitida e na conduta. Vide o exemplo recente da empresa Cambridge
Analytica, que coletou dados dos usuários do Facebook e, a partir das
informações contidas nesses dados, produziu propagandas personalizadas para
influenciar a ação das pessoas, desde compra de produtos até mesmo decisões
206
eleitorais, impactando todo um sistema político. Nesse contexto de Big Data, a
filosofia pode incitar uma análise crítica dos conteúdos divulgados nas redes
digitais. Além disso, pode até mesmo despertar, no senso comum, um bom
senso que talvez impossibilite o direcionamento da ação por aqueles que detêm
o controle das tecnologias.
Could philosophical reflection collaborate for a study of the influence
of digital technologies on collective action? In an attempt to answer this
question, we will first investigate the relation between information and action,
suggesting a possible connection between common sense and good sense
mediated by the philosophy proposed by Michel Debrun. The object of
philosophy, according to Debrun, is grounded on problems that mark the present
time. From this perspective, we will reflect on possible ethical consequences of
the influence of digital technologies on collective action. We argue that
philosophical reflection can explain problems arising from the manipulation of
information disseminated in social networks, collaborating on the construction
of a path to conscious collective action, more autonomous and less directed by
tools of control. We argue as well that philosophical reflection, based on
Debrun's proposal, can be an alternative to spread common sense, transforming
philosophy itself into an instrument of social and political force for the study of
the relation between information and autonomous action. Following, we will
turn to the Peircean semiotics, which characterizes information as a process.
Peirce elaborates a concept of information from three phenomenological
categories that are related to each other: firstness, secondness and thirdness.
These categories ground and structure the perceived phenomena. In this context,
information appears as a process of communication of a habit or form
incorporated in the environment, in which the sign performs the mediation
between object and interpretant. The correlation between sign, object and
interpretant permeates the notion of information, through the General Theory of
Signs, elaborated by Peirce. By having clarified the notion of information
proposed by Peirce, which grounds the concept of genuine information, it is
possible that we understand the role that information plays in today's society.
Some news, which are not always consistent with facts, which are disguised and
lead us to believe in the opposite, are being increasingly shared in digital
networks. When combined with tools that use Big Data, they can have
significant impacts on the information transmitted and on behavior. See the
recent example of the company Cambridge Analytica, which collected data from
Facebook users and, based on the information contained in it, produced
personalized advertisements to influence people's actions, from buying products
to even electoral decisions, impacting an entire political system. In this context
of Big Data, philosophy can incite a critical analysis of the contents
disseminated in digital networks. In addition, it can even awaken, in the
207
common sense, a good sense that may make impossible the directioning of
action by those who have control of the technologies.
INFORMAÇÃO, BIG DATA E AÇÃO AUTÔNOMA
INFORMATION, BIG DATA, AND AUTONOMOUS ACTION
Comunicação Oral / Oral Communication
PASCOAL, Valdirene Aparecida.
Unesp / Marília
VICENTINI, Max Rogério.
UEM, Unesp / Marília
GONZALEZ, Maria Eunice Quilici.
Unesp / Marília
Este trabalho tem como objetivo desenvolver uma reflexão acerca da
relação entre informação e ação-autônoma, no contexto das tecnologias
informacionais (ITC) com ênfase em processamento de quantidades massivas de
informação. Nosso problema pode ser assim formulado: Qual é o papel da
informação disponível nos Big Data para a ação-autônoma? O direcionamento
das pesquisas em relação à informação, no contexto da ITC, geralmente possui
uma orientação técnica, não incluindo questões éticas, ontológicas e
epistemológicas que são igualmente relevantes ao se tratar desse conceito. Em
contraste com a orientação técnica vigente, ressaltamos a abordagem proposta
por Charles S. Peirce, que caracteriza informação a partir de diferentes
perspectivas: lógico-semântica, pragmática e semiótica. Partindo da hipótese
que processos informacionais têm uma participação fundamental na aquisição e
desenvolvimento do conhecimento, investigamos impactos das tecnologias da
informação, que estão cada vez mais presentes em nossas relações cotidianas, na
rede complexa da vida contemporânea. Discutiremos transformações que as
ITCs têm possibilitado na relação agente-ambiente, focalizando recursos dos
Big Data que propiciam ações, muitas vezes direcionadas por interesses alheios
aqueles dos usuários. Argumentamos que o estudo da informação é importante
para entender, e até mesmo modificar implicações dos instrumentos de
tecnologias no direcionamento de nossas ações. São muitas as questões que
envolvem o conceito de informação e compreender a abrangência desse conceito
208
no plano da ação possibilitaria modificar hábitos, ações e estruturas que afetam
relações humanas.
This work aims to develop a reflection about the relationship between
information and autonomous action, in the context of information technologies
(ITC), with emphasis on processing massive amounts of information. Our
problem can be formulated as follows: What is the role of the information
available in Big Data in terms of autonomous action? The direction of research
in relation to information in the context of ITC usually has a technical
orientation, not including ethical, ontological, and epistemological issues that
are equally relevant when dealing with this concept. In contrast to the current
technical orientation, we highlight the approach proposed by Charles S. Peirce,
which characterizes information from different perspectives: logical-semantic,
pragmatic, and semiotic. Based on the hypothesis that informational processes
have fundamental participation in the acquisition and development of
knowledge, we investigate the impacts of information technologies that are
increasingly present in our everyday relationships in the complex network of
contemporary life. We will discuss transformations that ITCs have made
possible in the agent-environment relationship, focusing on the resources of Big
Data that provoke actions, often directed by interests other than those of users.
We argue that the study of information is important for understanding, and even
modifying, the implications of the instruments of technology in terms of
directing our actions. Many issues are involved in the concept of information
and understanding the scope of this concept in the plane of action would make it
possible to change habits, actions, and structures that affect human relations.
DATA SCIENCE NA EDUCAÇÃO: UM ESTUDO ACERCA DE
APLICAÇÕES DE BIG DATA ANALYTICS NA GERAÇÃO DE
CONHECIMENTOS EM INSTITUIÇÕES DE ENSINO
DATA SCIENCE IN EDUCATION: A STUDY ABOUT BIG DATA
ANALYTICS APPLICATIONS IN THE GENERATION OF
KNOWLEDGE IN INSTITUTIONS OF EDUCATION
Pôster / Poster
PATRICIO, Thiago Seti.
Unesp / Bauru
MAGNONI, Maria da Graça Mello.
Unesp / Bauru
209
A presente pesquisa busca perscrutar o conceito de Big Data e
ferramentas de análises de Big Data (Big Data Analytics) no contexto
educacional como a Mineração de dados (Data Mining), mais precisamente em
instituições de ensino. Neste quadro temático, o objeto de estudo recorta-se no
cenário contemporâneo do desenvolvimento desses locais a partir da utilização
de ciência de dados (Data Science), onde vê-se que o cenário é completamente
diferente quando instituições educacionais utilizam todo o poder de
processamento, integração, visualização e otimização de dados que o stack de
tecnologias ligadas ao universo de Big Data pode ofertar. A metodologia de
pesquisa dá-se por meio de estudo qualitativo e exploratório-descritivo,
lançando mão de uma análise de revisão da literatura, mais especificamente
livros, artigos científicos e reportagens que enfocam o conceito de Big Data e de
aplicações práticas deste no campo da educação. Ademais, o foco do estudo é
apresentar casos de aplicações de análise de Big Data em instituições de ensino,
como por exemplo, o case do governo do Estado de Goiás, no Brasil, que
aplicou ferramentas de Big Data Analytics a fim de melhorar a gestão e
qualidade da educação. Por adendo, pode-se citar também o case da Kroton,
uma empresa de educação privada, que passou a adotar uma solução de análise
de dados denominada Keyrus Big Data Education, que permite, entre outras
funções, uma análise preditiva com o intuito de potencializar a oferta de cursos
e lançamentos de novos polos de educação a distância no Brasil. Dessarte, com
o desenvolvimento deste estudo, é possível verificar a importância de Big Data
e suas ferramentas de análise, que constituem a ciência de dados, a fim de
proporcionar para as instituições de ensino a possibilidade de oferecer uma
aprendizagem personalizada ao aluno, ao fazer com que professores conheçam e
adequem melhor os conteúdos de seus cursos e aulas de acordo com o
cruzamento de dados como atividades curriculares, histórico escolar,
acompanhamento disciplinar, entre outros indicadores de estudantes, o que por
sua vez pode vir a acarretar em queda de taxa de evasão do ambiente escolar,
bem como também em melhor aprendizado.
The present research seeks to explore the concept of Big Data and
analysis tools of Big Data (Big Data Analytics) in the educational context such
as Data Mining, more precisely in educational institutions. In this thematic
framework, the object of study is cut in the contemporary scenario of the
development of these places from the use of data science (Data Science), where
it is seen that the scenario is completely different when educational institutions
use all the processing power, integration, visualization and data optimization
that the Big Data universe stack can offer. The research methodology is based
on a qualitative and exploratory-descriptive study, using a review analysis of the
literature, more specifically books, scientific articles and reports that focus on
210
the Big Data concept and its practical applications in the field of education. In
addition, the focus of the study is to present cases of Big Data analysis
applications in educational institutions, such as the case of Goiás state
government in Brazil, which applied Big Data Analytics tools to improve
management and quality of education. Another example is the case of Kroton, a
private education company, which has adopted a data analysis solution called
Keyrus Big Data Education, which allows, among other functions, a predictive
analysis with the aim of enhancing the offer of courses and launches of new
poles of distance education in Brazil. Thus, with the development of this study,
it is possible to verify the importance of Big Data and its analysis tools, which
constitute data science, in order to provide for educational institutions the
possibility to offer a personalized learning to the student, in doing with which
teachers know and better adapt the contents of their courses and classes
according to the cross-referencing of data such as curricular activities, school
history, disciplinary follow-up, among other student indicators, which in turn
may lead to a decrease in the rate of evasion of the school environment, as well
as in better learning.
PRINCÍPIOS DA ETICIDADE NO CONTEXTO DAS POLÍTICAS
DE PRIVACIDADE PERANTE O VEÍCULO DE
COMUNICAÇÃO CHAMADO SMART-TV
PRINCIPLES OF ETHICS IN THE CONTEXT OF PRIVACY
POLICIES BEFORE THE VEHICLE OF COMMUNICATION
CALLED SMART-TV
Pôster / Poster
PEIXOTO, Mario Cesar.
UFU
O conceito de privacidade, em comunicação digital, especificamente
televisiva, desde a sua origem até os tempos modernos, manteve sua essência.
Porém hoje observa-se uma maior complexidade em seu tratamento,
exemplificado pelo simples fato da facilidade do homem relacionar-se com as
coisas e a constante busca de fazer com que estas “coisas” comuniquem entre si
por meio da evolução tecnológica, cada vez mais acelerada. Contextualizando
uma dessas "coisas", temos um dos maiores veículos de comunicação que é a
televisão, mais precisamente a Smart-TV. No início da virada do milênio este
movimento, cunhado como Internet das Coisas, gerou uma provocação
reflexiva – englobando todos os agentes envolvidos (usuário-telespectador,
211
fabricante e o próprio aparelho) –, sobre a existência de uma cultura de
desinteresse pelas políticas de privacidade, com base ainda na relação
homem versus tecnologia, que pode ser interpretada como encantamento e
influência tecnológica. Em meio a todo esse processo, mesmo passando por
novas gerações, o desafio de mesclar toda inovação, interatividade, inteligência
e integração aos cuidados do bom costume fortifica-se nas vertentes da
moralidade subjetiva e objetiva, como já referenciava Hegel, ou seja, no âmbito
da eticidade. A partir do diagnóstico de Arendt sobre a individualidade é
possível afirmar que a privacidade é contraída a uma forma de vida não
discursiva. Para a filósofa política, a individualidade fora mutilada pela esfera
social, gerando uma espécie de conformismo não discursivo, discussão que
emerge da filosofia da informação e envolve, cada vez, mais a sociedade do
conhecimento, a evolução tecnológica e, sobretudo, as políticas públicas. Neste
contexto, busca-se com este estudo provocar a reflexão paradoxal do embate
entre inovação tecnológica versus segurança da informação, em um cenário que
envolve as políticas de privacidade imbricadas a uma definição mais
direcionada das políticas públicas frente a uma evolução atualizada do Marco
Civil da Internet, no que se refere, sobretudo, às transmissões de dados que os
equipamentos, na bolha da Internet das Coisas, com seus respectivos fabricantes
induzem e conduzem o cliente–cidadão–usuário.
The concept of privacy, in digital communication, specific television,
its base in recent times, continued its essence. Now one observes the greater
complexity in his treatment, exemplified by the simple fact of the ease of
relating to things and the constant quest to make these "things" communicate
with the ever-accelerating technological milieu of life. Contextualizing things,
we have the biggest vehicles of communication that a television, plus a Smart
TV. At the beginning of the generation of the movement of the movement, like
the Internet of Things, it generated a reflexive provocation - encompassing all
the agents involved, about the existence of a culture of disinterest for privacy
policies, based on technology, that can be interpreted as enchantment and
technological influence. In the midst of this process, even through new
generations, the challenge of merging all innovation, interactivity, intelligence
and integration into the care of good attire is fortified in the subjective and
objective morality aspects, as already mentioned by Hegel, that is, in the scope
of ethics. From the diagnosis of detection of a non-discursive way of life. For a
political philosopher, an individuality outside of social philosophy, generating a
kind of non-discursive conformism, a discussion about the philosophy of
information and an increasingly involved knowledge society, a technological
science and, above all, as policies public policies. This study, we search with
this study have a paradoxical crisis to clash between innovation technology and
security information, in one scenario that evolvent the privacy policies
imbricated to a more directive definition of public policies in front of an
212
Internet, above all, to the transmission of data on equipment in the Internet
bubble.
ABORDAGEM INFORMACIONAL PARA OBTENÇÃO DE
PROJEÇÕES E A AMPLIAÇÃO DA CONSCIÊNCIA
SITUACIONAL SOBRE INCÊNDIOS FLORESTAIS
UTILIZANDO TÉCNICAS SEMÂNTICAS
INFORMATIONAL APPROACH FOR THE OBTAINING OF
PROJECTIONS AND THE ENHANCEMENT OF THE
SITUATIONAL AWARENESS ON FOREST FIRES USING
SEMANTIC TECHNIQUES
Pôster / Poster
PEREIRA, Gustavo Marttos Cáceres.
Unesp / Marília
BOTEGA, Leonardo Castro.
Unesp / Marília
No contexto da Recuperação da Informação, a similaridade semântica é
importante para identificar semelhanças em contextos de senso comum e de
domínios específicos, sendo definida pelo cálculo de semelhança lexical ou
conceitual em modelos semânticos. Este conceito descreve que termos similares
sejam mapeados com o propósito de ampliar a quantidade e qualidade de
inferências em determinado domínio, podendo resultar em informações de
projeções a fim de corroborar com a avaliação de tendências. A análise de
similaridade ocorre por meio da semelhança e proximidade entre valores ou
propriedades que contenham indicadores que possibilitem representações
similares. A interpretação da similaridade depende integralmente do contexto no
qual ela se aplica podendo torná-la assimétrica, ou seja, a avaliação da
informação pode ser diferente sob condições bastante circunscritas. Tais
inferências sobre similaridade são úteis para definir tendências de uma situação
específica, sendo necessário formalizar, enriquecer e padronizar os dados com o
objetivo de propiciar maior qualidade à informação a partir do momento que as
inferências são elaboradas. No contexto de avaliação de informações sobre
situações de emergência, como as de incêndios florestais, cujas informações são
desestruturadas provenientes de inteligência humana, tendo como exemplo a
ocorrência de um foco de incêndio em uma plantação, há fatores externos, como
213
o clima, vento e vegetação que são decisivos para averiguar se há indícios do
fogo se alastrar pela plantação ou não. Em complemento, as situações devem ser
analisadas de acordo com o processo de Consciência Situacional (Situational
Awareness – SAW), que se refere à percepção e compreensão de elementos de
uma situação, fornecendo aos indivíduos envolvidos insumos informacionais
mais precisos para uma melhor tomada de decisão, principalmente em
ambientes dinâmicos e complexos como os de emergências, culminando na
etapa de projeção de estados. Esta última é uma etapa vital do processo devido
sua complexidade por parte dos indivíduos envolvidos em situações
emergenciais nas tentativas de projeções de estados, como por exemplo se o
fogo se alastrará. O estado-da-arte em avaliação de similaridade semântica
apresenta trabalhos que demonstram o cálculo de similaridade, mas se limitando
a isto, sem gerar inferências que possam resultar em projeções, principalmente
em tempo real. Portanto, a proposta deste trabalho objetiva a elaboração de um
método de análise de similaridade em modelos semânticos que seja capaz de
inferir informações em tempo real em ontologias, permitindo que novas
informações sejam reveladas, fornecendo a humanos insumos mais concretos
para uma melhor tomada de decisão, como projeções, de acordo com os
objetivos propostos. Para o desenvolvimento, serão utilizados o método de
estudo de caso e suas respectivas técnicas, como a análise de tarefas e avaliação
de similaridades, além de informações de denúncias oficiais encaminhadas aos
bombeiros previamente organizadas em catálogos de dados semânticos com o
propósito de fazer inferências para obter melhores resultados. Resultados
anteriores do projeto indiciam a necessidade de modelos semânticos em
aplicações de gerenciamento de emergências, portanto, espera-se que os
resultados das inferências realizadas propiciem insumos necessários para
satisfazer tanto os objetivos propostos por humanos, quanto para a projeção de
estados futuros no processo de SAW.
In the context of Information Retrieval, semantic similarity is important
to identify similarities in common-sense and domain-specific contexts, being
defined by the calculation of lexical or conceptual similarity in semantic
models. This concept describes that similar terms are mapped with the purpose
of increasing the quantity and quality of inferences in a domain, which can
result in information from projections to corroborate with the evaluation of
trends. Similarity analysis occurs through the similarity and proximity between
values or properties that contain indicators that enable similar representations.
The interpretation of similarity depends entirely on the context in which it
applies and can make it asymmetric, that is, the evaluation of information may
be different under very circumscribed conditions. Such inferences about
similarity are useful to define tendencies of a specific situation, and it is
necessary to formalize, enrich and standardize the data with the objective of
providing higher quality to the information from the moment that the inferences
214
are elaborated. In the context of assessing information on emergency situations,
such as forest fires, whose information is unstructured from human intelligence,
such as the occurrence of a fire in a plantation, there are external factors such as
climate, wind and type of vegetation that are decisive to ascertain if there is
evidence of the fire spreading by the plantation or not. In addition, situations
should be analyzed according to the process of Situational Awareness (SAW),
which refers to the perception and understanding of elements of a situation,
providing individuals with more accurate information inputs for better decision
making, especially in dynamic and complex environments such as emergencies,
culminating in the stage of state projection. The latter is a vital step of the
process because of its complexity on the part of individuals involved in
emergency situations in attempts at state projections, such as whether fire will
spread. The state-of-the-art in semantic similarity evaluation presents works that
demonstrate the calculation of similarity, but limiting itself to this, without
generating inferences that can result in projections, mainly in real time.
Therefore, the purpose of this work is to develop a method of analysis of
similarity in semantic models that is capable of inferring information in real
time in ontologies, allowing new information to be revealed, providing to
humans more concrete inputs for better decision making, as projections,
according to the proposed objectives. For development, the case study method
and its respective techniques, such as task analysis and similarity assessment,
will be used, as well as information on official reports sent to firefighters
previously organized in semantic data catalogs to make inferences to obtain
better results. Previous results of the project indicate the need for semantic
models in emergency management applications, so it is expected that the results
of the inferences will provide the necessary inputs to satisfy both the objectives
proposed by humans and the projection of future states in the SAW process.
ABORDAGEM DE FUSÃO DE INFORMAÇÕES SEMÂNTICAS
DE CRIME PARA A OBTENÇÃO DE PROJEÇÕES
SITUACIONAIS
APPROACH FOR CRIMINAL SEMANTIC INFORMATION
FUSION TO OBTAIN SITUATIONAL PROJECTIONS
Pôster / Poster
PEREIRA JUNIOR, Valdir Amancio.
Unesp / Marília
BOTEGA, Leonardo Castro.
215
Unesp / Marília
Consciência Situacional (Situational Awareness – SAW) se refere ao
nível de consciência que um indivíduo ou equipe detém sobre uma situação. No
domínio de gerenciamento de riscos, especialmente envolvendo situações de
crime, falhas de SAW podem induzir operadores humanos a erros no processo
decisório e acarretar riscos iminentes à vida e patrimônio. Adicionalmente,
domínios críticos e com situações dinâmicas estão sujeitos a problemas de
qualidade nas informações, especialmente quando estas são provenientes de
Inteligência Humana (HUMINT), neste caso os Boletins de Ocorrências
Criminais (BO). Considerando a natureza das informações e o contexto que
estão envolvidas, as informações dos BOs podem se encontrar incompletas,
desatualizadas, inconsistentes ou influenciadas por fatores culturais e de
estresse. Outros fatores limitantes à análise de situações de crime estão
relacionados à capacidade em lidar com grandes massas de dados, dificultando
processos informacionais como o processamento, persistência e recuperação de
informações. Processos de fusão de informações apresentam oportunidades para
melhorar a qualidade das informações relacionadas a situações criminais,
gerando subsídios que podem contribuir para uma SAW mais completa, tanto
para a caracterização de situações atuais, quanto a sua evolução num futuro
próximo. O estado da arte apresenta trabalhos que envolvem a representação e
processamento de informações críticas em alto-nível, entretanto aplicando
técnicas de fusão que se limitam à análise e integração de informações, onde a
aplicação de semântica, modelos ontológicos e a preocupação com a qualidade
da informação é limitada. Além disso, a forma que estes lidam com
informações, principalmente com o domínio criminal é restrita a parâmetros
léxicos e sintáticos. Em complemento, são escassos os trabalhos com enfoque ao
nível de projeção futura de SAW, não fazendo uso de todo potencial ligado às
técnicas de fusão de informações junto a aplicação de modelos semânticos e
ontologias. Assim, a proposta deste trabalho é o desenvolvimento de um
processo de fusão de informações semânticas, capaz de gerar informações mais
representativas e com melhor qualidade para o humano, visando atingir o nível
mais elevado de SAW, a projeção de situações. Para atender a mesma, será
desenvolvido um método que estende as capacidades do modelo Quantify
(Quality-aware Human Driven Information Fusion Model), abordando a criação
de uma ontologia de aplicação, capaz de representar o domínio criminal e
possibilitar inferências semânticas para o processo de fusão proposto. Utilizando
dos métodos de estudo de caso e análise de conteúdo, BOs oficiais serão
analisados para levantamento dos requisitos necessários, tanto para elaboração
do processo de fusão quanto para construção da ontologia. No primeiro
momento, serão consideradas situações de roubo e furto. Resultados parciais
indicam a real necessidade do desenvolvimento e adesão de uma ontologia
216
dedicada a situações de crime, tanto para melhoria das informações sobre o
domínio quanto para o auxílio a SAW e tomada de decisão. Espera-se que junto
a algoritmos de fusão capazes de relacionar informações semânticas, este
trabalho possa contribuir de forma positiva para os processos de representação,
persistência e inferência, resultando em informações com menor
dimensionalidade, melhores índices de qualidade e mais representativas para
auxiliar humanos no processo de SAW.
Situational Awareness (SAW) refers to the level of consciousness that
an individual or team holds about a situation. In risk management domain,
especially involving crime situation, SAW failures can induce human operators
to make mistakes in decision making and pose imminent risks to life and
property. In addition, critical domains with dynamic situations are prone to
information quality problems, especially when they come from Human
Intelligence (HUMINT), in this case Criminal Reports (CR). Considering the
nature of the information and the context that are involved, the information of
the CRs may be incomplete, outdated, inconsistent or influenced by cultural and
stress factors. Other limiting factors for analyzing crime situations are related to
the ability to deal with large scale data, hindering informational processes such
as processing, persistence and retrieval of information. Information fusion
processes present opportunities to improve the quality of information related to
criminal situations, generating subsidies that can contribute to a more complete
SAW, both for the characterization of current situations and their evolution in
the near future. The state-of-the-art presents solutions that involve the
representation and processing of critical information in high-level, however
applying fusion techniques that are limited to the analysis and integration of
information, where the application of semantics, ontological models and the
concern with the information quality is limited. Furthermore, the way they deal
with information, especially with the criminal domain is restricted to lexical and
syntactic parameters. Moreover, there are few works focusing on the future
projection of SAW, not making use of all potential linked to the techniques of
information fusion with the application of semantic models and ontologies.
Thus, the proposal of this work is the development of a semantic information
fusion process, able of generating more representative information and with
better quality for the human, aiming to reach the highest level of SAW, the
situations projection. Hence, a method will be developed that extends the
capabilities of the Quantify model (Human-Driven Information Fusion Model),
approaching the creation of an application ontology, able to represent the
criminal domain and enabling semantic inferences for the proposed fusion
process. Using the methods of case study and content analysis, official CRs will
be analyzed to determine the necessary requirements for both the elaboration of
the fusion process and the construction of the ontology. In the first moment,
robbery and theft situations will be considered. Partial results indicate the real
217
need for the development and adherence of an ontology dedicated to crime
situations, both to improve domain information and to assist SAW and decision
making. It is expected that, along with fusion algorithms able of relating
semantic information, this work can contribute positively to the representation,
persistence and inference processes, resulting in information with lower
dimensionality, better quality indices and more representative to aid humans in
the SAW process.
SESGOS DE CREENCIAS E IMPOSIBILIDAD DE DIÁLOGO
PÚBLICO: UNA TEORÍA DE LOS CONTEXTOS IMPLÍCITOS
PARA COMPRENDERLO
BIASED BELIEFS AND THE IMPOSSIBILITY OF PUBLIC
DIALOGUE: A THEORY OF THE IMPLICIT CONTEXTS TO
UNDERSTAND IT
Comunicação Oral / Oral Communication
PÉREZ, César Manuel López.
Universidad Nacional Autónoma de México
Una de las ideas más asociadas a la autonomía de acción es la de la
libertad de opinión. Sin embargo, un problema contemporáneo de implicaciones
sociales, éticas y políticas profundas es el de nuestra incapacidad de diálogo.
Casos del debate público en torno a varios temas, como la correcta legislación
ante el aborto, la justicia ante la presunta o comprobada corrupción de ex-
funcionarios públicos o la relevancia de las denuncias del feminismo, parecen
poseer una estructura en común. Todos estos casos parecen conducir a la
imposibilidad del diálogo y más bien escenificar su simulación, desarrollando
dos monólogos intercalados (o más, según el número de posiciones
encontradas). Toda la información que ofrece la parte opositora a un agente
epistémico tiende a ser recibida por éste como confirmación a sus prejuicios o
evidencia para sus conclusiones previas. Este fenómeno dialéctico conduce a la
polarización social y disuelve la ponderación ética de las cuestiones al mismo
tiempo que genera colectividades de personas afines en creencias y prejuicios.
En medio de todo esto, algoritmos de redes sociales o de buscadores que buscan
ofrecer desde el big data, resultados de búsquedas personalizadas a los intereses
de cada usuario, inciden reforzando el esquema de creencias y creando la ilusión
de entornos normales que más bien corroboran sesgos en nuestra manera de ver
el mundo. En las sugerencias de contactos dentro de las redes sociales, se nos
muestran automáticamente perfiles con comportamientos similares a los
218
nuestros y, probablemente, con prejuicios similares a los nuestros. Este manejo
de información en principio organizado para el consumo o la comodidad,
contribuye a un reforzamiento de la libertad de opinión sesgada. En este trabajo
buscamos una teoría que ayude a comprender mejor el problema y ofrezca
algunas bases para resolverlo, utilizando lógica formal y postulando nuevos
conceptos filosóficos. Partimos de dos conjeturas. La primera conjetura es que
nuestro razonamiento se vuelve sesgado y prejuicioso porque depende de
contextos implícitos y por ello no están sujetos a revisión. La segunda conjetura
postula al menos cuatro tipos de contextos diferentes para poder explicitarlos
(circunstanciales, téoricos, procedimentales y lógicos). Estos contextos se
relacionan con criterios metadiscursivos entre los que se encuentra nuestra
ponderación de la información que es relevante o que deberíamos descartar. Los
resultados de ambas conjeturas nos ofrecerían una explicación del sesgo de
opinión y la posibilidad de revisar metadiscursivamente nuestras creencias para
obtener la disposición a cambiarlas. Una vez obtenido esto, quizá podamos
construir un auténtico diálogo público. En la teoría de los contextos implícitos
que se está desarrollando y que aquí se presenta parcialmente, se encuentra una
analogía entre el problema de los monólogos intercalados, ya descrito, y la
inconmensurabilidad entre teorías en un sentido kuhniano. El nivel de
abstracción de esta analogía puede hacernos pensar nuevas consideraciones
conceptuales acerca del cambio científico.
One of the most associated with autonomy of action ideas is that of
freedom of opinion. However, a contemporary problem with deep social, ethical
and political implications is that of our inability to dialogue. Cases of public
debate on various issues, such as the correct legislation on abortion, justice
before the alleged or proven corruption of former public officials or the
relevance of the denunciations of feminism, seem to have a common structure.
All these cases seem to lead to the impossibility of dialogue and rather to stage
their simulation, developing two interspersed monologues (or more, depending
on the number of positions found). All the information offered by the opposing
party to an epistemic agent tends to be received by the latter as confirmation of
their prejudices or evidence for their previous conclusions. This dialectical
phenomenon leads to social polarization and dissolves the ethical weighting of
issues while generating collectivities of like-minded people in beliefs. In the
midst of all this, social network algorithms or search engines that seek to offer
personalized search results to the interests of each user from the big data, impact
reinforcing the belief scheme and creating the illusion of normal environments
that rather corroborate biases in our way to see the world. In the suggestions of
contacts within a social network, profiles with similar behavior to ours and
probably also with similar prejudices to ours are automatically shown. This
handling of information organized in principle for consumption or comfort,
contributes to a reinforcement of the freedom of biased opinion. In this work we
219
seek a theory that helps to better understand the problem and find some basis to
solve it, using formal logic and postulating new philosophical concepts. We start
from two conjectures. The first conjecture is that our reasoning becomes biased
because it depends on implicit contexts and therefore are not subject to revision.
The second conjecture offer the postulation of at least four types of different
contexts to explicit them (circumstantial, theoretical, procedural and logical).
This contexts are related to metadiscursive criteria among which are our
weighting of the information that is relevant or that we should discard. The
results of both conjectures would offer us an explanation of the biased opinion
and the possibility of metadiscursively reviewing our beliefs to obtain the
disposition to change them. Once this is achieved, perhaps we can build an
authentic public dialogue. In the theory of the implicit contexts that is being
developed and which is presented here partially, we find an analogy between the
problem of interleaved monologues, already described, and the
incommensurability between theories in a Kuhnian sense. The level of
abstraction of this analogy can make us think about new conceptual
considerations about scientific change.
O TRATAMENTO DOS OBJETOS VIRTUAIS DE
APRENDIZAGEM COMO RECURSOS INFORMACIONAIS NA
CRIAÇÃO, USO E RECUPERAÇÃO DA INFORMAÇÃO
THE TREATMENT OF VIRTUAL LEARNING OBJECTS AS
INFORMATIONAL RESOURCES IN INFORMATION
CREATION, USE AND RECOVERY
Pôster / Poster
PERFETTO, Fábio Viana.
UEL
O conceito de Objeto Virtual de Aprendizagem (OVA) é recente e
muitas são suas definições. De maneira geral OVA pode ser entendido como
todo objeto que pode ser utilizado como um elemento didático para o
aprendizado. Alguns autores sugerem uma definição mais restrita por focar
apenas em objetos digitais descrevendo os OVA como qualquer recurso digital
que possa ser utilizado para apoiar a aprendizagem. O OVA é uma estrutura
relativamente nova que tem como objetivo minimizar os problemas de
comunicação e para tanto deve ser construído levando em consideração as
características desejadas e as fundamentais. As características desejadas podem
ser divididas em técnicas e pedagógicas já as fundamentais são definidas como
220
reuso, interoperabilidade e metadados. Uma das características fundamentais, o
reuso permite a reutilização do OVA em diferentes contextos o que pode
significar uma diminuição de custo e melhoria de qualidade de cursos e
disciplinas. Um material que possui as peculiaridades técnicas e pedagógicas
que permitam uma melhoria na qualidade dos cursos , na maioria das vezes, leva
muito tempo para ser desenvolvido. A criação de um OVA é muito custosa na
questão do tempo e do trabalho despendido, o que justifica o seu reuso em
diferentes contextos educacionais, maximizando o seu aproveitamento. A opção
pelo reuso permite que as instituições dispensem menor tempo na criação de um
OVA e se dediquem mais à readequação, atualização e contextualização dos
mesmos para o reuso desses objetos em distintas modalidades, níveis e
disciplinas. A despeito da importância e do potencial de reuso dos OVA uma
grande parte destes objetos são desenvolvidos com conteúdos muito amplos o
que limita sua reutilização. Um OVA que contém mais de um conceito limita os
contextos e níveis em que o mesmo pode ser utilizado, pois a abordagem de
mais de um conceito pode não ser a apropriada para a necessidade educacional
do momento.A principal finalidade de um sistema de recuperação de informação
é assegurar que a necessidade de informação de um indivíduo seja atendida na
hora em que ele necessitar. O conceito do OVA se aproxima muito do conceito
de recursos informacionais, sendo descrito como fontes capazes de suprir as
demandas de informação de um individuo ou de uma coletividade nas mais
variadas áreas do conhecimento, recorrendo a formatos e suportes diferenciados.
A informação cientifica, informação tecnológica, informação cientifica e
tecnológica e a comunicação cientifica são classificados como recursos
informacionais. A Ciência da Informação (CI), em seus possíveis tratamentos,
utiliza dos conceitos e instrumentos para o tratamento da informação, como:
descrição, classificação, indexação, armazenamento e, posteriormente, a
recuperação dessa informação. Esta definição é complementada por outros
autores que identificam que a CI se dedica a geração, coleta, organização,
interpretação, armazenamento, recuperação, disseminação, transformação e uso
da informação, ou seja, a CI esta voltada para a produção do conhecimento e
para todos os processos inerentes a esta produção sendo que a criação de um
OVA se enquadra dentro deste conceito. O objetivo deste trabalho é discutir o
OVA como um elemento que, tendo todas as características descritas, pode ser
incluído nas discussões referentes à metadados e aos processos de recuperação
da informação.
The concept of Virtual Learning Object (OVA) is recent and many are
its definitions. In general OVA can be understood as any object that can be used
as a didactic element for learning. Some authors suggest a narrower definition
by focusing only on digital objects describing OVA as any digital resource that
can be used to support learning. The OVA is a relatively new structure that aims
to minimize communication problems and must be constructed taking into
221
account the desired and fundamental characteristics. The desired characteristics
can be divided into technical and pedagogical as the fundamental ones are
defined as reuse, interoperability and metadata. One of the fundamental
characteristics, the reuse allows the reuse of the OVA in different contexts
which can mean a reduction of cost and improvement of quality of courses and
disciplines. A material that has the technical and pedagogical peculiarities that
allow an improvement in the quality of the courses, most of the time, takes a lot
of time to be developed. The creation of an OVA is very costly in the question
of time and work expended, which justifies its reuse in different educational
contexts, maximizing its use. The option of reuse allows institutions to spend
less time creating an OVA and to devote more time to the re-adaptation,
updating and contextualization of the same for the reuse of these objects in
different modalities, levels and disciplines. In spite of the importance and the
potential of reuse of the OVA, a great part of these objects are developed with
very broad contents which limits their reuse. An OVA that contains more than
one concept limits the contexts and levels at which it can be used, since the
approach of more than one concept may not be appropriate to the educational
need of the moment. information is to ensure that an individual's information
needs are met at the time they need it. The OVA concept is very close to the
concept of information resources, being described as sources capable of meeting
the information demands of an individual or of a collectivity in the most varied
areas of knowledge, using different formats and supports. Scientific
information, technological information, scientific and technological information
and scientific communication are classified as information resources.
Information Science (CI), in its possible treatments, uses the concepts and
instruments for the treatment of information, such as: description, classification,
indexing, storage and, later, the retrieval of this information. This definition is
complemented by other authors who identify that CI is dedicated to the
generation, collection, organization, interpretation, storage, retrieval,
dissemination, transformation and use of information, that is, CI is focused on
knowledge production and for all the processes inherent to this production being
that the creation of an OVA fits within this concept. The objective of this work
is to discuss OVA as an element that, having all the characteristics described,
can be included in the discussions regarding metadata and information retrieval
processes.
QUALIDADE DOS DADOS NO CONTEXTO DE BIG DATA
DATA QUALITY IN THE CONTEXT OF BIG DATA
Pôster / Poster
222
PICCOLO, Marcela.
FATEC / Presidente Prudente
O crescimento da quantidade de dados, proporcionado pelo avanço das
tecnologias da informação e comunicação ao longo dos anos, causou uma
revolução na sociedade, chamada de Big Data. Esse fenômeno permitiu
mudanças na coleta e análise de dados, tornando a análise dos dados uma
ferramenta poderosa, porém, cercada de riscos caso os dados não estiverem
estruturados de forma correta. O tema Big Data tem sido tratado nas mais
diversas áreas do conhecimento e mesmo com o grande investimento em
tecnologias, para processamento de grandes volumes de dados, é necessário
analisar se os dados estão atendendo suas necessidades e avaliar a qualidade dos
dados para uma análise mais precisa, melhorando os processos de negócios,
tomadas de decisões mais inteligentes e criar vantagens estratégicas. Estudos
apontam que organizações são ricas em quantidade de dados, mas ainda não tem
informações com qualidade, o que torna a qualidade dos dados um desafio para
as organizações se manterem em um mercado cada vez mais competitivo. Neste
contexto, buscando estabelecer uma relação dos termos abordados neste
trabalho com a área da Ciência da Informação, é conveniente julgar a
importância do envolvimento do profissional de informação nas discussões
sobre os temas qualidade de dados e Big Data, uma vez que o uso de dados e
informações sempre foi objeto de estudo para a área. Diante do exposto, o
estudo tem como objetivo realizar uma revisão sistemática, identificando como
tem sido abordada as questões de qualidade de dados no contexto de Big Data.
A metodologia deste trabalho baseou-se em uma pesquisa exploratória com base
qualitativa. Para tanto, foi analisada as publicações do Journal of the
Association for Information Science and Technology, que abordaram o tema de
qualidade de dados e Big Data. A escolha desse periódico deu-se pelo fato dele
ser um dos mais respeitados periódicos de pesquisa em Ciência da Informação.
As buscas foram realizadas por meio da aplicação da sequencia de consulta do
periódico para os termos “data quality” and “Big Data”, obtendo um total de 8
estudos. As publicações sobre o tema iniciaram em 2010 com apenas uma
publicação. O ano de 2014 foi o de maior número de publicações com três no
total e a última publicação foi em 2017. A distribuição das temáticas abordadas
nos artigos nas categorias definidas ocorreu mediante a análise do resumo e das
palavras chaves dos mesmos. Conclui-se que o tema qualidade de dados e Big
Data ainda são recentes, uma vez que a primeira publicação foi em 2010. As
temáticas abordas pelos artigos, em sua maioria, apresentaram questões sobre a
gestão da qualidade dos dados por meio de aplicações com tecnologias distintas
em ambientes de Big Data, o que destaca fortemente a área da Ciência da
Computação, não se preocupando com critérios de qualidade para um contexto
específico, deixando vasto espaço para pesquisas futuras sobre o tema na área da
223
Ciência da Informação que poderá contribuir com no aprimoramento das
análises de dados, que fornecerão informações em cenários de Big Data,
auxiliando a tomada de decisões.
The growth in the amount of data, provided by the advancement of
information and communication technologies over the years, has caused a
revolution in society, called Big Data. This phenomenon allowed changes in the
collection and analysis of data, making data analysis a powerful tool, however,
surrounded by risks if the data is not structured correctly. The Big Data theme
has been addressed in the most diverse areas of knowledge and even with the
great investment in technologies for processing large volumes of data, it is
necessary to analyze if the data are meeting their needs and to evaluate the
quality of the data for a more analysis improve business processes, smarter
decision-making, and create strategic advantages. Studies point out that
organizations are rich in data quantity, but do not yet have quality information,
which makes data quality a challenge for organizations to remain in an
increasingly competitive market. In this context, seeking to establish a
relationship of the terms addressed in this work with the area of Information
Science, it is convenient to judge the importance of the involvement of the
information professional in the discussions on the issues of data quality and Big
Data, since the use of data and information has always been the object of study
for the area. In view of the above, the study aims to conduct a systematic
review, identifying how data quality issues have been addressed in the context
of Big Data. The methodology of this work was based on an exploratory
research with qualitative basis. To that end, we analyzed the publications of the
Journal of the Association for Information Science and Technology, which
addressed the issue of data quality and Big Data. The choice of this journal was
due to the fact that it is one of the most respected journals of research in
Information Science. The searches were performed through the application of
the journal's query sequence to the terms "data quality" and "Big Data",
obtaining a total of 8 studies. The publications on the subject began in 2010 with
only one publication. The year 2014 was the largest number of publications with
three in total and the last publication was in 2017. The distribution of the themes
addressed in the articles in the defined categories occurred through the analysis
of the abstract and the key words of the same. It is concluded that the theme data
quality and Big Data are still recent, since the first publication was in 2010. The
topics covered by the articles, for the most part, presented questions about the
management of data quality through applications with different technologies in
Big Data environments, which strongly emphasizes the area of Computer
Science, not worrying about quality criteria for a specific context, leaving ample
room for future research on the subject in the field of Information Science that
can contribute to the improvement of data analysis, which will provide
information in scenarios of Big Data, helping decision making.
224
ESTUDO EXPLORATÓRIO DAS TENDÊNCIAS PARA O BIG
DATA NO MEIO RURAL
EXPLORATORY STUDY OF TRENDS FOR BIG DATA IN THE
RURAL ENVIRONMENT
Pôster / Poster
PINHEIRO, Renata.
ETEC Centro Paula Souza / Marília
Vivencia-se cada vez mais cenários com Sistemas de Big Data e o
compartilhamento de dados, que permitem a interface entre as informações e
atividades, como no meio rural, que traz possibilidades de avanços ao
agronegócio no Brasil, o que solidifica o conceito de fazendas inteligentes,
como uma realidade da contemporaneidade, com máquinas conversando com
máquinas, robôs realizando análises do solo, técnicas de manejo com a
Agricultura de Precisão. Avanços que têm o papel de promover a obtenção de
ganhos de produtividade, maior economia dos negócios, diminuição do
desperdício, controle mais eficaz e, consequentemente, a obtenção de mais lucro
pelo produtor rural, aliado às Tecnologias de Informação e Comunicação. Será
que estamos preparados para os avanços e inovações que estão ocorrendo a cada
dia? São necessários estudos que viabilizem como pensar na dimensão dos
dados gerados na produção rural, na potencialização e fortalecimento em que os
dados analisados podem trazer com o objetivo de se articular políticas públicas
orientadas à inovação, ao desenvolvimento da infraestrutura habilitadora e da
regulação adequada que contemple o produtor rural, desde sensores de captação,
o Sistema de Posicionamento Global (GPS), os drones, os monitoramentos de
irrigação e sensores instalados em locais específicos, na busca por eficiência de
sistemas e processos, com a inteligência sobre dados, onde o mundo físico e
digital se integram cada vez mais. A pesquisa é do tipo descritivo-exploratória,
com paradigma da ciência da informação, baseado em Big Data, cujo universo
são empresas e instituições de ensino da cidade de Pompeia, São Paulo. Como
resultados espera-se que todos esses dispositivos inteligentes na interlocução
dos dados contribuam com o avanço da Ciência no futuro sobre a forma de
interpretação e análise dos resultados de pesquisa, comparados com a literatura
sobre o tema com soluções digitais.
More and more scenarios are being developed with Big Data Systems
and data sharing, which allow the interface between information and activities,
as in the rural environment, which brings possibilities of advances to
225
agribusiness in Brazil, which solidifies the concept of intelligent farms, as a
reality of contemporaneity, with machines talking to machines, robots
performing soil analyzes, handling techniques with Precision Agriculture.
Advances that have the role of promoting productivity gains, greater business
savings, less waste, more effective control and, consequently, more profit from
the rural producer, combined with Information and Communication
Technologies. Are we prepared for the breakthroughs and innovations that are
taking place each day? It is necessary to carry out studies that make feasible
how to think about the dimension of the data generated in the rural production,
the potentialization and strengthening in which the analyzed data can bring with
the objective of articulating public policies oriented to innovation, the
development of the enabling infrastructure and the adequate regulation that
contemplates the rural producer, from capture sensors, the Global Positioning
System (GPS), the drones, irrigation monitoring and sensors installed in specific
locations, the search for efficiency of systems and processes, intelligence over
data, where the world physical and digital are increasingly integrated. The
research is of the descriptive-exploratory type, with paradigm of the information
science, based on Big Data, whose universe are companies and educational
institutions of the city of Pompeia, São Paulo. As a result, it is expected that all
these intelligent devices in data interlocution contribute to the advancement of
Science in the future on how to interpret and analyze the research results,
compared to the literature on the subject with digital solutions.
PENSAMENTO E AÇÃO: ASPECTOS ÉTICOS SOBRE O SER E
O FAZER NO MEIO INFORMACIONAL
THOUGHT AND ACTION: ETHICAL ASPECTS ABOUT BEING
AND DOING IN THE INFORMATIONAL
Pôster / Poster
PIZELLI, Fabrício Rodrigues.
Unesp / Marília
Com os avanços contemporâneos da tecnologia, no que tangem ao
registro e disseminação de diversas categorias de dados informacionais, surge-
nos problemas éticos a respeito da maneira de lidarmos com informações de
cunho pessoal ou de interesses coletivos. Diante desses problemas, percebe-se
uma profunda defasagem entre o pensamento e ação, haja vista o fato do ser
humano possuir faculdades cognitivas que o possibilita o uso da razão, mas em
uma aplicação no plano da ação é notável a diferença entre a intenção da ação e
226
a ação, propriamente, efetivada. Considerando-se, em meio uma vasta
abordagem interdisciplinar, podemos destacar, como um dos problemas da
relação entre pensamento e ação, o prevalecimento do sistema moral kantiano
que, atualmente, demonstra-se anacrônico. A moral kantiana aborda o fazer
ético em um âmbito universal e necessário, no qual, a partir de uma proposição
categórica declara uma ação como moral ou imoral. Porém, em uma época, em
que os saberes estão alcançando uma complexidade alta, de modo que, apenas
uma área do conhecimento não é capaz de se debruçar sobre o problema e
respondê-lo de maneira satisfatória, logo, juízos universais e necessários tendem
a não abarcar determinadas situações inerentes ao âmbito informacional.
Consequentemente, a complicação entre ser ético, em que se detêm um
conhecimento de causa, além de reconhecer as implicações do mal-uso das
informações alheias, torna-se maior em contraste à ação. Dessa maneira, cada
situação ética envolvendo o âmbito informacional deve ser abordado e
explorado de maneira singular, com inferências e predicados restritos a situação
em questão. Visto isso, a proposta sartriana torna-se mais interessante, pois, ela
propõe que princípios muitos abstratos não conseguem definir uma ação, uma
vez que, as proposições estritamente universais e necessárias não acompanham a
dinâmica do mundo informacional. Portanto, de acordo com a proposta
sartriana, é preciso que, de acordo as situações que demandam a utilização da
liberdade, se crie e se invente os conceitos morais de acordo como eles se dão
no movimento do mundo, ou seja, na relação fenomenológica da
intencionalidade da consciência para com os objetos transcendentes, no intuito
de se analisar caso por caso, de acordo com suas complexidades, a melhor
abordagem e inferência moral.
With the contemporary advances of technology, as far as the
registration and dissemination of diverse categories of informational data are
concerned, we are faced with ethical problems regarding the way we deal with
information of a personal nature or of collective interests. Faced with these
problems, a profound discrepancy between thought and action can be seen,
given the fact that the human being possesses cognitive faculties that makes
possible the use of reason, but in an application in the plane of action the
difference between the intention of the action and action, properly effected, is
telling. Considering a vast interdisciplinary approach, we can point out, as one
of the problems of the relationship between thought and action, the prevalence
of the Kantian moral system which, today, is anachronistic. The Kantian moral
approaches the ethical doing in a universal and necessary scope, in which, from
a categorical proposition declares an action as moral or immoral. However, at a
time when knowledge is reaching a high complexity, so that only one area of
knowledge is unable to address the problem and respond satisfactorily, so
universal and necessary judgments tend to do not cover certain situations
inherent to the informational scope. Consequently, the complication between
227
being ethical, in which one has a knowledge of the cause, and recognizing the
implications of the misuse of the information of others, becomes greater in
contrast to the action. In this way, each ethical situation involving the
informational sphere must be approached and explored in a singular way, with
inferences and predicates restricted to the situation in question. Given this, the
sartrian proposal becomes more interesting, since it proposes that many abstract
principles cannot define an action, since the strictly universal and necessary
propositions do not follow the dynamics of the informational world. Therefore,
according to the sartrian proposal, it is necessary, according to the situations that
demand the use of freedom, to create and invent the moral concepts according
as they occur in the world movement, that is, in the phenomenological relation
of the intentionality of consciousness towards transcendent objects, in order to
analyze case by case, according to their complexities, the best approach and
moral inference.
MODELOS DE REPRESENTAÇÃO SEMÂNTICA NA ERA DO
BIG DATA
MODELS OF SEMANTIC REPRESENTATION IN THE AGE OF
BIG DATA
Comunicação Oral / Oral Communication
RAMALHO, Rogério Aparecido Sá.
UFSCar
SOUSA, Janailton Lopes.
UFSCar
MARTINS, Paulo George Miranda.
UFSCar
Ao efetuar buscas na internet é possível se deparar com grandes
volumes de informações e dados produzidos por seres humanos e máquinas, no
qual seu processamento é uma tarefa árdua executada por mecanismos
automáticos, quer seja softwares ou padrões inteligentes. O Big Data é um
fenômeno caracterizado pelo grande volume de dados que está distribuído na
web, cujos browsers que indexam páginas web diariamente necessitam
identificar campos, valores, descritores, tags, termos correlatos ou até mesmo
228
sentenças para gerar um resultado de busca eficiente. O desenvolvimento das
tecnologias de comunicação e informação realçaram o modo de produção e
processamento de informações e, o uso de novos padrões e modelos que
suportam essa tendência são adotados como um meio de modelar os dados para
representá-los em ambientes dinâmicos, como a web. Esta pesquisa discute, sob
a perspectiva de análise, os princípios que fundamentam os conceitos do Linked
Data, a saber: os modelos de representação da informação na web como o
Resource Description Framework (RDF), o Simple Knowledge Organization
System (SKOS) e a Web Ontologie Language (OWL). O objetivo deste trabalho
é apresentar o contexto de uso destas tecnologias e como elas são utilizadas para
representar as informações no ambiente web no âmbito do Big Data. O RDF é
um padrão que se fundamenta nas triplas sujeito, predicado e objeto, na qual é
possível atribuir semântica aos dados representadas de forma mais ampla. A
estrutura do RDF agrega outras triplas que passam a compor um ecossistema,
cuja concepção oferece subsídios para a construção semântica da web por meio
da interligação de dados que podem ser implementados em sistemas de
recuperação de informações. Por descender da eXtensible Markup Language
(XML), o RDF permite compilar novos modelos que melhor atenda às
necessidades de representação e processamento de dados com um nível
semântico mais elevado. O SKOS, caracteriza-se como um modelo de
esquematização de conceitos que pode utilizado no ambiente web por meio de
Uniform Resource Identifiers (URIs) no qual estão associados a um determinado
conceito. A perspectiva semântica permanece e amplia o modo de representação
simples para o mais complexo, como é o caso das ontologias, que no ambiente
web utiliza a linguagem OWL. Estes modelos são utilizados como fundamentos
para a Web Semântica e propiciam um alto nível de processamento e, nesta
pesquisa enfatiza-se a discussão desses modelos, que surgem como meio de
vincular grandes volumes de dados sem perder o contexto no qual são
originados. Portanto, são partes que contribuem para o entendimento do
fenômeno Big Data e os novos paradigmas de processamento e representação no
contexto da Web Semântica.
When searching the Internet, it is possible to come across large
volumes of information and data produced by humans and machines, in which
it’s processing is an arduous task performed by automatic mechanisms, be it
software or intelligent standards. Big Data is a phenomenon characterized by the
large amount of data that is distributed on the web, whose browsers that index
web pages daily need to identify fields, values, descriptors, tags, related terms or
even sentences to generate an efficient search result. The development of
information and communication technologies has highlighted the way
information is produced and processed, and the use of new patterns and models
that support this trend are adopted as a means of modeling the data to represent
them in dynamic environments such as the web. This research discusses, from a
229
perspective of analysis, the principles underlying the concepts of Linked Data,
namely: the information representation models in the web such as the Resource
Description Framework (RDF), the Simple Knowledge Organization System
(SKOS) and Web Ontology Language (OWL). The purpose of this paper is to
present the context of using these technologies and how they are used to
represent the information in the web environment within the framework of Big
Data. RDF is a standard that is based on the subject, predicate and object triples,
in which it is possible to assign semantics to the data represented in a broader
way. The structure of the RDF adds other triples that come to compose an
ecosystem, whose conception offers subsidies for the semantic construction of
the web through the interconnection of data that can be implemented in systems
of information retrieval. By descending from eXtensible Markup Language
(XML), RDF allows you to compile new models that best meet the needs of
representing and processing data with a higher semantic level. The SKOS is
characterized as a schematization model of concepts that can be used in the web
environment through Uniform Resource Identifiers (URIs) in which they are
associated with a certain concept. The semantic perspective remains and extends
the mode of simple representation to the more complex, as is the case of
ontologies, which in the web environment uses the OWL language. These
models are used as foundations for the Semantic Web and provide a high level
of processing, and in this research the discussion of these models is emphasized,
as they emerge as a means of linking large volumes of data without losing the
context in which they originate. Therefore, they are parts that contribute to the
understanding of the Big Data phenomenon and the new paradigms of
processing and representation in the context of the Semantic Web.
BIG DATA E CIÊNCIA DE DADOS: COMPLEMENTARIEDADE
CONCEITUAL NO PROCESSO DE TOMADA DE DECISÃO
BIG DATA AND DATA SCIENCE: CONCEPTUAL
COMPLEMENTARITY IN THE DECISION-MAKING PROCESS
Comunicação Oral / Oral Communication
RAUTENBERG, Sandro.
UNICENTRO
CARMO, Paulo Ricardo Viviurka do.
UNICENTRO
230
Com o advento da Internet, tem-se produzido imensas bases de dados
nos mais variados domínios. Cerca de 90% dos dados produzidos pela
humanidade foram gerados nos últimos 18 meses, muito em função dos
desenvolvimento e uso massivo das Tecnologias de Informação e Comunicação.
Notadamente, o desenvolvimento de instrumentos voltados à extração
automatizada de informação a partir de grandes volumes dados e o consequente
auxílio no processo de tomada de decisão têm despertado atenção das
organizações. Ou seja, atualmente, a evolução dados → informação →
conhecimento em ambientes de Big Data requer a sinergia de competências
interdisciplinares de profissionais (cientistas da informação, cientistas da
computação, estatísticos e gestores) em uma nova área de atuação, a Ciência de
Dados (Data Science). Dentre as atribuições referidos atores, estão por exemplo:
conceber a obtenção de dados originados de fontes heterogêneas e distribuídas
na web; formalizar o tratamento dos dados e metadados; definir os
procedimentos de ingestão de dados em repositórios; e arquitetar a exploração
dos dados e metadados para produzir informação relevante nos processos de
tomada de decisão. Considerando a interdisciplinaridade do processo evolutivo
dados → informação → conhecimento, o objetivo deste trabalho é discutir a
diferença e a complementariedade dos conceitos Big Data e Ciência de Dados.
Como resultado, aponta-se que o Big Data é um termo intrinsecamente ligado à
infraestrutura do hardware e serviços de computação na nuvem necessários para
o armazenamento, processamento e a distribuição de recursos. Em outras
palavras, considerando a evolução dados → informação → conhecimento, Big
Data é relacionado à camada basilar, privilegiando os 5Vs (Velocidade,
Variedade, Veracidade, Volume e Valor) atribuídos aos dados. Em relação à
Ciência de Dados, entende-se que este é um conceito conexo à camada dos
softwares para a transformação de dados em informação e o apoio à tomada de
decisão. Neste sentido, a Ciência de Dados envolve diversos atores (cientistas da
informação, cientistas da computação, estatísticos e gestores, dentre outros) e
suas competências nas atividades de: (i) obtenção de dados de fontes primárias;
(ii) ingestão de dados, pré-processando e estruturando os dados e seus
metadados para o uso; (iii) modelagem dos processos de transformação de dados
e seus metadados de modo a gerar informações relevantes; (iv) utilização de
algoritmo(s) de Aprendizagem de Máquina para automatizar os processos de
sumarização e visualização de informações a partir dos dados disponíveis; e (v)
inferência de novos entendimentos acerca dos dados, auxiliando os tomadores
de decisão no desempenho de suas atividades.
Nowadays, considering the use of the Internet, huge databases are
produced in a wide range of domains. About 90% of the data produced by the
mankind have been generated in the last 18 months. Notably, the development
of instruments for automating the extraction of information from large volumes
of data for facilitating the decision-making process are gaining organizations'
231
attention. In other words, the evolution data → information → knowledge in
Big Data environments requires the synergy of interdisciplinary skills of some
professionals (information scientists, computer scientists, statisticians and
managers) in a new domain, the Data Science. Among the attributions of those
actors, we can list: designing the data acquisition from heterogeneous and
distributed on web sources; formalizing the data and metadata preprocessing
tasks; defining the procedures for data ingestion; and modeling the data and
metadata exploitation for producing relevant information in decision-making
processes. Considering the interdisciplinarity in the evolutionary process data →
information → knowledge, we discuss the difference of Big Data and Data
Science concepts and their complementarity. As a result, it is pointed out that
Big Data is a term close related to the hardware infrastructure and cloud
computing services required for storing, processing and distributing resources.
In other words, considering lifecycle data → information → knowledge, Big
Data is perceived a basilar layer, promoting the 5Vs (Volume, Velocity, Variety,
Veracity, and Value) assigned to the data resources. Regarding to Data Science,
it is understood that it is a concept related to the software layer for transforming
data into information and supporting the decision-making processes. In this
sense, Data Science involves several actors (information scientists, computer
scientists, statisticians and managers, among others) and their competencies for:
(i) obtaining data from original sources; (ii) pre-processing, structuring and
ingesting the data and their metadata for forthcoming use; (iii) modeling the
data and metadata transformation processes to generate relevant information;
(iv) using Machine Learning Algorithm(s) to automate the activities for
summarizing and visualizing information from available data; and (v) inferring
new understandings about data, assisting the decision makers in their activities.
INTERSECÇÃO TEMÁTICA DE PROGRAMAS DE PÓS-
GRADUAÇÃO PARA O FENÔMENO BIG DATA NO BRASIL
THEMATIC INTERSECTION OF POSTGRADUATE
PROGRAMS FOR THE BIG DATA PHENOMENON IN BRAZIL
Comunicação Oral / Oral Communication
REYES, Jacquelin Teresa Camperos.
Unesp / Marília
ROMANETTO, Luiza de Menezes.
Unesp / Marília
232
SANT’ANA, Ricardo Cesar Gonçalves.
Unesp / Tupã
SANTOS, Plácida Leopoldina Ventura Amorim da Costa.
Unesp / Marília
A sociedade contemporânea vem se consolidando de maneira
complexa. O desenvolvimento Web e tecnológico tem proporcionado o
aprimoramento das ferramentas adotadas nas múltiplas dimensões sociais e,
consequentemente, no aprimoramento daquelas direcionadas à geração e ao uso
de dados nas mais diversas áreas. Este contexto tem sido descrito como o
fenômeno Big Data, definido inicialmente a partir de três V’s: volume,
variedade e velocidade. Alicerçado na geração massiva de dados estruturados,
semi-estruturados e não estruturados, têm sido adotadas diversas maneiras de
coletar, integrar, analisar e tomar decisões a partir de diversos tipos de dados e
para os mais diversos fins. Neste contexto, tendo como base as premissas de
Borko (1968) em que a Ciência da informação é responsável por investigar a
origem, coleta, organização, armazenamento, recuperação, interpretação,
transmissão, transformação e uso da informação, reconhece-se que na
conjuntura do Big Data a informação é resultado da geração, processamento e
análise de dados, ciclo este realizado por diferentes áreas do conhecimento,
como a ciência da computação, a matemática/probabilidade e estatística, entre
outras, o que motivou ao desenvolvimento deste estudo. O objetivo do estudo
foi identificar, no âmbito de programas de pós-graduação de estas três áreas,
quais características, temáticas e disciplinas oferecidas podem conter
similaridades pertinentes às necessidades do Big Data no Brasil. Deste modo, o
problema de pesquisa pode ser assim descrito: Qual é o tipo de relação teórica
existente entre os programas de Ciência da informação, Ciência da Computação
e Matemática, no Brasil, ao abordar temáticas relacionadas com o fenômeno Big
Data? Para responder ao problema e ao objetivo da pesquisa foi adotada como
metodologia a pesquisa qualitativa de ordem exploratória, realizada mediante os
procedimentos metodológicos: 1) revisão bibliográfica sobre o Big Data; 2)
coleta e análise de dados; a coleta de dados sobre programas de pós graduação
na plataforma Sucupira permitiu identificar e selecionar os programas objeto; 3)
análise de conteúdo sobre os programas de pós graduação, linhas de pesquisa,
temáticas e disciplinas oferecidas pelos mesmos a partir de informações
descritas no site de cada programa. Foram analisados 39 programas de pós-
graduação de maior reconhecimento no Brasil, com avaliação CAPES 5, 6 e 7,
identificando-se quais conteúdos são abordados por cada programa, conteúdos
estes vinculados ao fenômeno Big Data, assim como a inter-relação entre as
áreas e disciplinas abordadas. Como resultados, apresenta-se que a Ciência da
233
informação traz as categorias formas de acesso a dados e informações nas novas
ambiências e uso da tecnologia na gestão de dados e informações; a Ciência da
computação apresenta mineração de dados e gerenciamento de dados; ao final,
Matemática/Probabilidade e estatística aponta técnicas de processamento e
análise de dados; aprendizado de máquina; e, visualização científica. Os
resultados obtidos nas análises não se esgotam e devem ser expandidos por meio
da análise de programas de pós-graduação em outras áreas do conhecimento,
assim como investigar o tema no âmbito internacional.
Contemporary society has been consolidating itself in a complex way.
The Web and technological development has provided the improvement of the
tools adopted in the multiple social dimensions and, consequently, in the
improvement of those directed to the generation and the use of data in the most
diverse areas. This context has been described as the Big Data phenomenon,
initially defined from three V's: volume, variety and speed. Based on the
massive generation of structured, semi-structured and unstructured data, several
ways of collecting, integrating, analyzing and making decisions have been
adopted from different types of data and for a variety of purposes. In this
context, based on the premises of Borko (1968) in which Information Science is
responsible for investigating the origin, collection, organization, storage,
retrieval, interpretation, transmission, transformation and use of information, it
is recognized that in the conjuncture of Big Data, information is the result of the
generation, processing and analysis of data, a cycle carried out by different areas
of knowledge, such as Computer Science, Mathematics/Probability and
Statistics, among others, which motivated for the development of this study. The
objective of the study was to identify, within the scope of postgraduate
programs in these three areas, which characteristics, thematic and disciplines
offered may contain similarities pertinent to the needs of Big Data in Brazil.
Thus, the research problem can be described as follows: What kind of
theoretical relationship exists between the programs of Information Science,
Computer Science and Mathematics, in Brazil, when addressing issues related to
the Big Data phenomenon? To answer the problem and the objective of the
research, qualitative research of exploratory order was adopted as methodology,
carried out through the methodological procedures: 1) bibliographical review on
the Big Data; 2) data collection and analysis; the collection of data on
postgraduate programs in the Sucupira platform allowed the identification and
selection of the object programs; 3) content analysis of the postgraduate
programs, research lines, themes and disciplines offered by them, based on the
information described in the website of each program. A total of 39 graduate
programs of higher recognition in Brazil, with CAPES 5, 6 and 7 evaluation,
were analyzed, identifying what contents are addressed by each program,
contents linked to the Big Data phenomenon, as well as the interrelation
between areas and disciplines. As results, it is presented that the Information
234
Science brings the categories forms of access to data and information in the new
ambiences and use of technology in the management of data and information;
Computer Science introduces data mining and data management; at the end,
Mathematics/Probability and statistics points out data processing and analysis
techniques; machine learning; and, scientific visualization. The results obtained
in analyzes are not exhaustive and should be expanded through the analysis of
postgraduate programs in other areas of knowledge, as well as to investigate the
subject in the international scope.
UMA ANÁLISE FILOSÓFICA DA SINGULARIDADE
TECNOLÓGICA NA INTELIGÊNCIA ARTIFICIAL
A PHILOSOPHICAL ANALYSIS OF TECHNOLOGICAL
SINGULARITY IN ARTIFICIAL INTELLIGENCE
Comunicação Oral / Oral Communication
RIBEIRO, Henrique de Morais.
Unesp / Marília
A presente comunicação, que associa de modo interdisciplinar a
filosofia da mente e a inteligência artificial (IA), tem como tópico de pesquisa a
hipótese de singularidade. Segundo tal hipótese, a singularidade tecnológica ou
também chamada de explosão ou superação de inteligência, preconiza o evento
segundo o qual a inteligência das máquinas superaria a inteligência humana em
funções cognitivas gerais ou específicas. Tal hipótese suscitou argumentos
favoráveis e contra tal hipótese na literatura que relaciona a filosofia com a IA.
Assim, esta comunicação possui três objetivos a saber. No primeiro, procura-se
situar a discussão da hipótese de singularidade no contexto científico atual,
salientando-se os argumentos favoráveis e contrários a tal hipótese indicando-se
o estado da arte da discussão sobre tal hipótese. No segundo, com base na
pesquisa desenvolvida no primeiro objetivo, procura-se aprofundar o aspecto
favorável a tal hipótese com os princípios de IA estabelecidos por Allan Turing
como fundamentos da IA contemporânea, isto é, os princípios da máquina de
Turing que fundamentam grande parte da projeção indicada pela hipótese de
singularidade onde as máquinas superariam a inteligência humana. No terceiro,
com base no primeiro, visa-se aprofundar o aspecto desfavorável à hipótese de
singularidade com base na elaboração de objeções à IA fundamentadas nas
repercussões filosóficas dos teoremas de Kurt Gödel sobre a incompletude dos
sistemas formais em relação ao conceito formal de máquina de Turing. A
235
metodologia de pesquisa consiste em análise e construção argumentativas e no
campo da IA, será de natureza teórica.
This communication, which associates the Philosophy of Mind and the
Artificial Intelligence, has the singularity hypothesis as a research topic.
According to such a hypothesis, the technological singularity, or the
technological explosion, or the overcoming of intelligence, foresees the event
according to which the machine intelligence would take the human intelligence
over in relation to cognitive general or specific capacities. Such a hypothesis
raised arguments in favor and against as regards the philosophical implications
associated with the field of Artificial Intelligence. Thus, this communication has
three objectives. First, we envisage situating the state-of-the-art discussion of
the singularity hypothesis in the current scientific context, by pointing out the
arguments in favor and against the singularity hypothesis. Second, on the basis
of the research undertaken in the first objective, we aim to get deeper the
arguments in favor of the singularity hypothesis on the basis of the foundational
principles proposed by Allan Turing on the Turing machine, principles that
underlie the current Artifical Intelligence. Third, on the basis of the first
objective, we attempt to research deeper about the case against the singularity
hypothesis on the basis of the objections to Artifical Intelligence founded the the
philosophical implications of Kurt Gödel´s imcompleteness theorems of formal
systems in relation to the formal concept of Turing Machine. The methodology
of research consists in the analyses and contruction of arguments and, in the
field of Artificial Intelligence, the research undertaken will be theoretical.
IMAGENS DIGITAIS NO CONTEXTO DO BIG DATA:
VERACIDADE E VALOR
DIGITAL IMAGES IN BIG DATA CONTEXT: VERACITY AND
VALUE
Comunicação Oral / Oral Communication
ROA-MARTÍNEZ, Sandra Milena.
Universidade do Cauca / Colômbia, Unesp / Marília
CONEGLIAN, Caio Saraiva.
Unesp / Marília
VIDOTTI, Silvana Aparecida Borsetti Gregorio.
236
Unesp / Marília
Considerando as imagens digitais como recursos informacionais de
natureza complexa que são geradas diariamente em diversos âmbitos, com
múltiplos formatos, a partir de numerosos dispositivos e com diferentes camadas
de conteúdo para serem analisadas, necessita-se de pesquisas focadas nos
processos de representação e recuperação de imagens digitais, mas que ao
mesmo tempo contemplem e sejam consoantes aos quesitos relacionados às
capacidades computacionais necessárias para o armazenamento, o
processamento e a gestão destes recursos. Estas questões tangenciam os estudos
de Big Data, que está vinculado a conjuntos de dados de múltiplos domínios
cujo tamanho (Volume), complexidade (Variedade), Velocidade de crescimento,
Veracidade e Valor, fazem com que seja difícil utilizar as tecnologias e as
ferramentas tradicionais. Contudo, quando o enfoque está nos processos de
representação e de recuperação da imagem digital, considerando a complexidade
da sua descrição, a Veracidade e o Valor são desafios para garantir que as
imagens sejam parte desse contexto do Big Data mantendo os aspectos centrais
desse tipo de recurso. Objetiva-se assim, analisar como podem ser garantidas as
características de Veracidade e de Valor do Big Data no processo de
representação das imagens digitais. Para isto, utilizou-se uma metodologia
exploratória com abordagem qualitativa a partir da revisão documental e
levantamento bibliográfico relacionado às temáticas de Veracidade e de Valor
do Big Data e imagens digitais. Desse modo, observa-se que a Veracidade na
imagem digital está relacionada ao aprimoramento da qualidade dos dados e ao
significado do conteúdo da imagem, que torna necessário considerar as diversas
camadas de conteúdo visual (sintático e semântico) e não visual nos processos
de representação. Ademais, encontrou-se que a característica de Valor se associa
ao uso dos dados da imagem no processo de recuperação de imagens baseada
em conteúdo, realizada por diversos consumidores e a partir de múltiplas fontes
de armazenamento distribuídas, que para representar o conteúdo visual das
imagens deverá usar tanto algoritmos de extração de características e análises de
conteúdo formal quanto padrões de metadados para a representação do conteúdo
não visual. Portanto, conclui-se que há uma necessidade do uso de padrões para
a descrição do conteúdo não visual das imagens digitais que facilitarão a
interoperabilidade entre os múltiplos armazenamentos distribuídos, além disso,
verificou-se que o armazenamento e o processamento das imagens digitais
requer altas capacidades computacionais possibilitadas pelo Big Data, mas que
uma vez obtida a representação do conteúdo visual e não visual das imagens,
estes conteúdos permitirão a recuperação dos recursos informacionais de forma
eficiente garantindo a Veracidade e o Valor dos dados. Por fim, sugere-se
explorar as outras características como Volume, Variedade e Velocidade para as
imagens digitais, as quais possuem uma alta ligação aos aspectos
237
computacionais, enquanto que as características analisadas neste trabalho,
Veracidade e Valor, ainda que tenham uma relação com a Computação, foram
analisadas principalmente com elementos vinculados à Ciência da Informação.
Considering digital images as information resources of complex nature
that are generated daily in multiple scopes, with multiple formats, from
numerous devices and with different layers of content to be analyzed, we require
(for their analysis) focused research in the processes of representation and
retrieval of digital images, but at the same time contemplate and are consonant
to the questions related to the computational capacities necessary for the
storage, processing and management of these resources. These issues are linked
to the Big Data studies, which covers datasets of multiple domains whose size
(Volume), complexity (Variability), speed of growth (Velocity), Veracity and
Value, make it difficult to use traditional technologies and tools. However,
when focusing on the processes of digital image representation and retrieval,
considering the complexity of its description, Truth and Value are challenges to
ensure that images are part of this Big Data context while maintaining the
central aspects of this type of resource. The objective is to analyze how Big
Data's Veracity and Value features can be guaranteed in the process of digital
images representation. For this, we used an exploratory methodology with a
qualitative approach based on the documentary review and bibliographical
survey related to the Veracity and Value of Big Data and digital images. Thus, it
is observed that the Veracity in the digital image is related to the improvement
of data quality and the meaning of the image content, which makes it necessary
to consider the several layers of visual (syntactic and semantic) and non-visual
content in the processes of representation. Also, it was found that the Valor
feature is associated to the use of image data in the content-based image
retrieval process performed by several consumers and from multiple distributed
storage sources, which to represent the visual content of the images should be
used both feature extraction algorithms and formal content analyzes as well as
metadata standards for non-visual content representation. Thus, it is concluded
that there is a need for the use of standards for describing the non-visual content
of digital images that will facilitate interoperability between multiple distributed
stores, besides that, it has been found that digital image storage and processing
requires high computational capabilities made possible by Big Data, once the
representation of the visual and non-visual content of the images is obtained,
these contents will allow the retrieval of these information resources efficiently
guaranteeing the Veracity and Value of the data. Finally, it is suggested to
explore the other features such as Volume, Variability and Velocity for digital
images, which are considered with a high connection to computational aspects,
while the features analyzed in this work as Veracity and Value although it has a
strong relation with Computing, were analyzed mainly with elements related to
the Information Science.
238
WHATSAPP COMO UM CANAL DE VENDA NA
AGRICULTURA FAMILIAR: UM ESTUDO DE CASO
WHATSAPP AS A CHANNEL OF SALE IN FAMILY
AGRICULTURE: A CASE STUDY
Pôster
ROCHA, Laiane Cuer da.
Unesp / Marília
No decorrer da história a agricultura sofreu diversas mudanças, sendo
que a agricultura familiar é um dos segmentos que tem uma elevada
contribuição na economia de muitas cidades, por este motivo este trabalho tem
como objetivo iniciar a investigação sobre a utilização do aplicativo WhatsApp
como canal de venda utilizado pelo agricultor para comercializar seus produtos.
O agricultor familiar é produtor de olerícolas e algumas frutas como manga,
laranja, abacate, limão, melancia entre outras. Com uma grande variedade de
produtos é necessário que o produtor tenha alguns canais de vendas, sendo que o
mesmo não faz distribuição para mercados da cidade nem para atacadistas.
Buscando conhecer os canais de vendas faz-se necessário conhecer o perfil da
propriedade familiar, logo após identificar quais os produtos que são
produzidos, quais são suas formas de comercialização e seus pontos fortes e
fracos, qual a rentabilidade financeira que cada canal de venda utilizado
proporciona. Buscando atingir estes objetivos será abordada uma pesquisa
descritiva tendo como forma de coleta de dados utilizada uma entrevista
estruturada que será realizada com o agricultor estudado in loco. Buscando
conhecer um pouco sobre a propriedade rural uma entrevista não estruturada foi
realizada com o agricultor, foi possível observar que atualmente ele cultiva
aproximadamente 30 produtos diversos. Sendo que os canais mais
predominantes são as vendas por pelo aplicativo WhatsApp no qual sua esposa
encaminha uma lista com os produtos disponíveis para vendas para um grupo de
consumidores cadastrados nas segundas e sextas feiras. Por meio dessa lista os
consumidores escolhem o que querem comprar, fazendo a solicitação do
produtor requerido. Após a solicitação de compra os produtos são separados e
entregues diretamente ao consumidor pelo produtor familiar, já o outro canal de
venda utilizado e a participação do produtor em feiras locais sendo nos dias de
sábado e domingo.
Throughout history, agriculture has undergone several changes, and
family farming is one of the segments that has a high contribution in the
239
economy of many cities, so this work aims to initiate research on the use of the
WhatsApp application as a channel sale used by the farmer to market his
products. The family farmer is a producer of olerícolas and some fruits like
mango, orange, avocado, lemon, watermelon among others. With a great variety
of products, it is necessary that the producer has some sales channels, being that
it is not distributed to city markets nor to wholesalers. Seeking to know the sales
channels, it is necessary to know the profile of the family property, after
identifying which products are produced, what are their forms of marketing and
their strengths and weaknesses, what the financial profitability that each sales
channel used provides. In order to reach these objectives a descriptive research
will be approached, having as form of data collection a structured interview that
will be carried out with the farmer studied in loco. Looking to know a little
about the rural property, an unstructured interview was conducted with the
farmer, it was possible to observe that he currently cultivates about 30 different
products. The most prevalent channels are sales per WhatsApp application in
which your wife forwards a list of products available for sale to a group of
consumers registered on Mondays and Fridays. Through this list consumers
choose what they want to buy, at the request of the producer required. After the
purchase request the products are separated and delivered directly to the
consumer by the family producer, the other sales channel used and the
producer's participation in local fairs being on Saturday and Sunday.
O USO DO WHATSAPP COMO FERRAMENTA DE
MARKETING E ESTRATÉGIA PARA PROSPECÇÃO E
FIDELIZAÇÃO DE CLIENTES NA AGRICULTURA FAMILIAR:
UM ESTUDO DE CASO
THE USE OF WHATSAPP AS A MARKETING TOOL AND
STRATEGY FOR PROSPECTING AND FIDELIZING
CUSTOMERS IN FAMILY AGRICULTURE: A CASE STUDY
Pôster / Poster
ROCHA, Laiane Cuer da.
Unesp / Marília
FERNANDES, Cristina Vicente dos Reis.
Unesp / Marília
240
O cenário mundial vem passando por constantes mudanças, dentre elas
pode-se citar o relacionamento produtores rurais e cliente. Graças ao surgimento
da internet e o uso de mídias sociais, os produtores rurais passaram a usar essa
ferramenta ao seu favor, tanto para divulgação de produtos, quanto para
prospecção e fidelização de seus clientes. Os consumidores têm buscado cada
dia mais, por comodidade e conveniência, e ter acesso a informações de
produtos de sua preferência e até novos produtos sem sair de casa, é algo que
atrai os clientes atualmente. Deste modo, os produtores rurais que fazem vendas
de produtos diretamente ao consumidor buscam a fidelização dos mesmo,
usando ferramentas que permitam a aproximação do cliente, muitas vezes com a
intenção de fazer com que seus clientes sejam divulgadores de seus produtos, e
isso atualmente é possível devido ao uso das mídias sociais, tendo com
facilidade a divulgação de seus produtos em tempo real, possibilitando que os
usuários visualizem e/ou comprem produtos a qualquer hora do dia. A presente
pesquisa tem por objetivo iniciar uma investigação se o uso das novas
tecnologias, nesse caso específico o uso do Whatsapp, pode ser uma ferramenta
auxiliar de propaganda para as pequenas propriedades de agricultura familiar.
Para tanto, utilizou-se o estudo de caso para chegar aos resultados. Na
propriedade familiar são produzidas olerícolas e algumas frutas como abacate,
limão, laranja, melancia dentre outras. O ‘Grupo Orgânicos, foi criado no
Whatsapp com uma relação de possíveis clientes pela produtora familiar com o
intuito de divulgar os produtos produzidos pela propriedade familiar buscando
aproximar os clientes da propriedade. O grupo foi criado no ano de 2015 hoje
conta com 45 participantes. Com a divulgação dos produtos produzidos na
propriedade, o grupo atingiu o efeito esperado, aumentou as vendas dos
produtos bem como o surgimento de novos membros no grupo.
The world scenario has been constantly changing, among them we can
mention the rural producers and customer relationship. Thanks to the emergence
of the internet and the use of social media, rural producers started to use this
tool in their favor, both for product dissemination and for prospecting and
customer loyalty. Consumers have been looking more and more for convenience
and convenience and accessing product information of their choice and even
new products without leaving home, is something that draws customers today.
Thus, rural producers that sell products directly to the consumer seek their
loyalty, using tools that allow the customer to approach, often with the intention
of making their customers divulge their products, and this is currently due to the
use of social media, with the easy disclosure of their products in real time,
allowing users to view and / or buy products at any time of the day. The present
research aims to initiate an investigation if the use of the new technologies, in
this specific case the use of Whatsapp, can be an auxiliary tool of propaganda
for the small properties of familiar agriculture. For that, the case study was used
to reach the results. In the family property are produced olerícolas and some
241
fruits like avocado, lemon, orange, watermelon among others. Grupo Orgánicos
was created in Whatsapp with a list of possible clients by the family producer in
order to promote the products produced by the family property in order to bring
the clients closer to the property. The group was created in 2015 and now has 45
participants. With the release of the products produced on the property, the
group achieved the expected effect, increased product sales as well as the
emergence of new members in the group.
QUASE-VERDADE: ASPECTOS PRAGMÁTICOS E
FORMALIZAÇÃO
QUASI-TRUTH: PRAGMATIC ASPECTS AND
FORMALIZATION
Pôster / Poster
RODRIGUES, Douglas Alexandre.
Unesp / Marília
SILVESTRINI, Luiz Henrique da Cruz.
Unesp / Bauru
O objetivo deste trabalho é discutir os aspectos pragmáticos da
concepção de verdade e analisar a lógica subjacente à estrutura matemática na
teoria da quase-verdade, propondo um sistema dedutivo alternativo para essa
lógica. Entretanto, faz-se necessário, inicialmente, uma reflexão acerca do papel
da verdade na filosofia da ciência, pois, de acordo com a concepção
correspondencial de verdade, uma sentença, podendo exprimir uma crença, é
verdadeira ao retratar algo real, caso contrário é falsa. Neste caso, a crença ou
sentença indica se estados de coisas existem, sendo assim, verdadeiros, caso
contrário, falso. Ademais, Alfred Tarski, em seu artigo O conceito de verdade
em linguagens formalizadas, apresenta a hipótese de que ‘verdadeiro’ ou ‘falso’
não representam uma predicação de objetos, mas precisamente atributos de
sentenças. Sendo assim, Tarski estabelece uma construção na qual predica esses
atributos sem considerar uma auto-referência contraditória. Neste caso, em que
sentido o conceito de verdade pragmática generaliza a verdade correspondencial
de Tarski em situações de parcialidade? Segundo Peirce, a verdade representa o
fim da indagação científica quando esta nos conduzir a um sistema de crenças
estável, e, com o passar do tempo e o progresso científico, teremos atingido a
verdade. A aproximação entre o pragmatismo de Peirce e o conceito de verdade
242
de Tarski parece patente ao analisarmos a formalização da estrutura pragmática
da quase-verdade. Pesquisas recentes sobre a quase-verdade mostram que a
lógica adequada para teorias que envolvem uma situação que se aproxima da
verdade é uma lógica paraconsistente, apresentada como um sistema
axiomático. Além disso, outros trabalhos investigam a Lógica da Verdade
Pragmática (LPT) com a proposta de interpretar a LPT por meio de outros
sistemas dedutivos. Assim, do ponto de vista lógico, torna-se relevante
investigar possíveis sistemas dedutivos para a Lógica da Verdade Pragmática
aplicadas à noção de quase-verdade e propor algum outro tipo de sistema, pois
tais abordagens são fundamentais para a compreensão desta nova concepção de
verdade.
The goal of this presentation is to discuss the pragmatic aspects of the
conception of truth and to analyze the logic underlying the mathematical
structure in the theory of quasi-truth, proposing another type of deductive
system for this logic. However, it is necessary, initially, a reflection on the role
of truth in philosophy of science, because, according to the correspondential
conception of truth, a sentence, expressing a belief, is true when portraying
something real, otherwise it is false. In this case, the belief or sentence indicates
whether states of things exist, thus being true, otherwise false. In addition,
according to Alfred Tarski, in his article The concept of truth in formalized
languages, the hypothesis that 'true' or 'false' does not represent a predication of
objects, but precisely attributes of sentences. Thus, Tarski establishes a
construct in which he preaches these attributes without considering a self-
reference self-contradictory. In this case, in what sense does the concept of
pragmatic truth generalize the truth correspondence of Tarski in situations of
partiality? According to Pierce, truth represents the end of scientific inquiry
when it leads us to a stable belief system, and, over time and scientific progress,
we have reached the truth. The approximation between Pierce's pragmatism and
Tarski's concept of truth seems clear when we analyze the formalization of the
pragmatic structure of quasi-truth. Recent research on quasi-truth shows that the
appropriate logic for theories involving a situation approaching truth is a
paraconsistent logic presented as an axiomatic system. In addition, other works
investigate the Pragmatic Truth Logic (LPT) with the proposal to interpret the
LPT through other deductive systems. Thus, from a logical point of view, it
becomes relevant to investigate possible deductive systems for the Pragmatic
Truth Logic applied to the notion of quasi-truth and to propose some other kind
of system, since such questions seem fundamental to the new paradigms in
Philosophy and Science.
243
ANÁLISE DE DOMÍNIO DA PRODUÇÃO CIENTÍFICA SOBRE
COLETA DE DADOS NO CONTEXTO DO INSTITUTE OF
ELECTRICAL AND ELECTRONICS ENGINEERS
DOMAIN ANALYSIS OF SCIENTIFIC PRODUCTION ABOUT
DATA COLLECTING ON INSTITUTE OF ELECTRICAL AND
ELECTRONICS ENGINEERS CONTEXT
Comunicação Oral / Oral Communication
RODRIGUES, Fernando de Assis.
Unesp / Marília
MOREIRA, Fábio Mosso Moreira.
Unesp / Marília
SANT’ANA, Ricardo César Gonçalves.
Unesp / Tupã
Este estudo teve como objetivo identificar pesquisas que versam sobre
a temática de coleta de dados. Para tanto foi utilizada análise de domínio em
publicações científicas, com a aplicação de uma análise de citações e cocitações.
A identificação dos representantes da temática de coleta de dados e a
interlocução existente entre eles foi obtida a partir do processamento dos
conjuntos de metadados sobre publicações em periódicos disponíveis da base de
conhecimento IEEE Xplore(r) Digital Library. Como estratégia de busca,
utilizou-se na interface de busca avançada os termos ‘Data Collecting’, ‘Data
Collect’ e ‘Data Gathering’, concatenados pelo operador booleano ‘OU’. Foram
recuperados dados sobre 2.278 publicações e a amostra foi delimitada aos
artigos publicados em periódicos científicos entre os anos de 1954 e 2018,
totalizando 281 publicações. Para cada artigo, foi coletado o conjunto de
referências na forma de documento HTML. Sobre o conteúdo obtido foi
aplicado um algoritmo para a conversão das referências de HTML para CSV e a
serialização das referências para o padrão de estilo IEEE Editorial Style. Foram
processadas 5.867 referências e identificados 8.267 autores, sendo descartadas
270 referências por estarem fora do padrão. Aplicou-se a Lei do Elitismo de
Price para a delimitação do corpo de autores nas análises de citação e cocitação,
totalizando 91 autores, número este que foi arredondado para 94 para
contabilizar mais 3 autores que possuíam o mesmo número de citação do 91º
244
autor. Posteriormente, aplicou-se um algoritmo para a geração das matrizes i)
citados e citantes e ii) de frequência absoluta de cocitação. A partir destes dados,
a identificação de informações sobre nacionalidade e associação institucional
foram obtidas por processamento manual. Foram calculados os indicadores de
rede social: i) Densidade da Rede, representando a intensidade de
relacionamentos entre autores da rede e ii) Centralidade de Grau, representando
o número de ligações incidentes em um autor. A análise dos dados resultou em
uma Densidade de Rede no valor de 3,20 e desvio padrão amostral de 3,34, ou
seja, cada pesquisador têm aproximadamente 3 relacionamentos com pares da
rede; e Centralidade de Grau no valor de 20,93%, demonstrando dispersão, com
cada vértice possuindo 20,93% de probabilidade de receber alguma interação da
rede. A dispersão está associada com a amplitude do domínio analisado, pois
coleta de dados é um tema recorrente em diferentes áreas do conhecimento, mas
aderente ao contexto de publicação dos periódicos da IEEE. Ao analisar a
Centralidade de Grau dos autores individualmente, é possível observar uma
relação com a quantidade de citações recebidas, uma vez que os 13 principais
autores do índice de Centralidade de Grau são também os mais citados,
representando 25,16% de todas as citações recebidas da rede. Neste grupo, foi
identificado uma média de 7,69% de representatividade de cada autor no total de
citações, com amplitude variando entre 6,12% e 11,76%. Conclui-se que a
temática apesar de amplamente citada apresenta um núcleo estadunidense,
ligado às instituições UC, USC e MIT.
The goal of this study is to identify scientific studies about the thematic
of data collecting. For this purpose, it was adopted the domain analysis method
on the scientific papers, by an application of Citation and Co-citation Analysis.
The identification of representatives from the thematic of data collecting and the
existent dialog among them were obtained by authors and papers metadata sets
processing, available on IEEE Xplore(r) Digital Library. As search strategy, it
was used on advanced search the terms ‘Data Collecting’, ‘Data Collect’, and
‘Data Gathering’, concatenated by the boolean operator ‘OR’. This process
recovered 2,278 scientific papers and the sample was set only by scientific
papers published in scientific journals between the years 1954 and 2018, with a
total of 281 papers. For each paper, the reference section was collected in
HTML document format. It was applied an algorithm to convert formats from
HTML documents to CSV files and also to serialize the IEEE Editorial Style
found on collected reference data. The algorithm processed 5,867 references and
discarded 270 because they not fit into the IEEE Editorial Style standards
adopted on serialization. From this references, was identified a total of 8,267
authors. In Citation and Co-citation Analysis, it was applied the Price's square
root law to delimit the authors' group to 91 participants, rounded to 94
participants because of the 91st participant had the same total of citation of his 3
successors. After that, the "Cited and Who cited" and the "Absolute Frequency
245
of Co-citation" matrices was generated from an application of an algorithm. By
those data, the identification of nationality and the institutional affiliation were
obtained by a manual process. Was calculated the social networks indexes i)
Network Density, representing the relationship intensity between authors on the
network and ii) Centrality Degree, representing the number of relationships
received by an author. The analyzed data resulted in a Network Density value of
3.20 with a standard deviation of 3.34, that is, each researcher has
approximately 3 relationships with other network nodes. Also, the resulted value
of Centrality Degree was 20.93%, demonstrating dispersion on the network,
once that each node has 20.93% of probability to receive some interaction from
the network. This dispersion is associated with the analyzed domain amplitude,
once that Data Collecting is a recurrent theme on distinct knowledge areas, but
still adherent to IEEE scientific journals context. When results of the Centrality
Degree of each author are analyzed, it is possible to observe a relationship
between the results of received citations, indicating that the 13 best-ranked
authors by Centrality Degree are also the most cited ones, representing 25.16%
of all citations from the network. Also in this group was identified an average of
7.69% from the total of cites to each author, with amplitude varying between
6.12% and 11.76%. It was concluded that this thematic, although widely cited,
shows an American core, related to the institutions UC, USC, and MIT.
DESCRIÇÃO DE ACERVOS MUSEOLÓGICOS:
POSSIBILIDADES DA UTILIZAÇÃO DO SOFTWARE ATOM
NA REPRESENTAÇÃO DA INFORMAÇÃO
DESCRIPTION OF MUSEOLOGICAL ACCOUNTS:
POSSIBILITIES OF THE USE OF THE ATOM SOFTWARE IN
THE REPRESENTATION OF THE INFORMATION
Comunicação Oral / Oral Communication
RODRIGUES, Nandia Leticia Freitas.
Unesp / Marília
JORENTE, Maria José Vicentini.
Unesp / Marília
Os avanços e desenvolvimentos constantes das novas Tecnologias de
Informação e Comunicação têm impulsionado às instituições museológicas a
disponibilizar no ambiente web grande parte de seus acervos para o livre acesso
246
do público internauta. No entanto, a falta de estruturas, normas e padrões no
processo do tratamento descritivo das peças museais podem dificultar a
representação da informação, recuperação, interoperabilidade e importação de
dados entre sistemas, além disso, os acervos museológicos, por serem
compostos por variados tipos de suportes documentais, dentre os quais:
iconográficos, tridimensionais e bibliográficos, demandam maior atenção às
peculiaridades da descrição dessa documentação e, por isso, é necessário à
utilização de normas e softwares de descrição que atendam a complexidade
desses acervos. Acreditamos que o software de descrição arquivística AtoM
possa ser aplicado nesse processo de tratamento descritivo, visto que trata-se de
um software open source, que possibilita convergências de normas,
interoperabilidade, descrições multiníveis, multilíngue, possui design simples e
viabiliza a promoção de acesso e difusão de dados no ambiente digital. Neste
sentido, a presente pesquisa busca por meio da Ciência da Informação e
disciplinas correlatas, analisar o software AtoM, e os ambientes webs de alguns
Museus do Brasil, a fim de compreender como os acervos vem sendo
representadas nestes ambientes, e as possibilidades da utilização software AtoM.
Assim, o questionamento central desse estudo é: o software AtoM pode
contribuir na representação da informação dos acervos de Museu no ambiente
web? A metodologia aplicada na pesquisa possui abordagem qualitativa, é de
caráter teórico de nível descritivo e exploratório da literatura da área e converge
a disciplina Design da Informação para analisar o design do AtoM em seus
níveis de descrição. Os resultados demonstram que, a maioria dos Museus
analisados estão ainda muito focados na custodia dos objetos e na realização de
exposições nos ambientes físicos, pouco se tem discutido sobre as questões de
padronização e interoperabilidade de sistemas de representação da informação
museológica em seus ambientes webs, e tão pouco na disponibilização efetiva
ao público de seus acervos para o acesso virtual. No que tange o software AtoM,
constata-se que este possui significativas possibilidades de aplicação para a
representação e recuperação da informação através da descrição multinível dos
objetos. A descrição documental dos objetos de museu é fundamental para a
representação, recuperação, uso e reuso da informação, e sua disponibilização
no ambiente web, potencializa consideravelmente o alcance e a resolução das
necessidades informacionais do público.
The advances and constant developments of the new Information and
Communication Technologies have driven museological institutions to make
available in the web environment a large part of their collections for the free
access of Internet users. However, the lack of structures, norms and standards in
the process of descriptive treatment of museum pieces can hinder the
representation of information, retrieval, interoperability and data import
between systems, in addition, museological collections, since they are composed
of several types of Documentary media, among which: iconographic, three-
247
dimensional and bibliographical, demand more attention to the peculiarities of
the description of this documentation and, therefore, it is necessary to use norms
and software of description that attend the complexity of these collections. We
believe that the AtoM archival description software can be applied in this
descriptive process, since it is an open source software, which allows
convergence of standards, interoperability, multilevel descriptions, multilingual,
has a simple design and enables the promotion of access and diffusion of data in
the digital environment. In this sense, the present research seeks through the
Information Science and related disciplines, to analyze the software AtoM, and
the web environments of some Museums of Brazil, in order to understand how
the collections are represented in these environments, and the possibilities of the
use AtoM software. Thus, the central question of this study is: can the AtoM
software contribute to the representation of the information of the museum
collections in the web environment? The methodology applied in the research
has a qualitative approach, is of a theoretical character at the descriptive and
exploratory level of the literature of the area and converges the discipline of
Information Design to analyze the design of the AtoM in its levels of
description. The results show that most of the analyzed museums are still very
focused on the custody of objects and the realization of exhibitions in physical
environments, little has been discussed about the standardization and
interoperability issues of museological information representation systems in
their web environments, and so little in the effective availability to the public of
their collections for virtual access. Regarding the AtoM software, it has been
found that it has significant application possibilities for the representation and
retrieval of information through the multilevel description of the objects. The
documentary description of museum objects is fundamental for the
representation, retrieval, use and reuse of information, and its availability in the
web environment, considerably enhances the reach and resolution of the
informational needs of the public.
A RECONSTRUÇÃO DA MEMÓRIA NEGRA ATRAVÉS DE
DOCUMENTAÇÃO ICONOGRÁFICA PRESENTE NOS
ARQUIVOS: UMA ANÁLISE NO WEBSITE DO ARQUIVO
PÚBLICO DO ESTADO DE SÃO PAULO
THE RECONSTRUCTION OF BLACK MEMORY THROUGH
ICONOGRAPHIC DOCUMENTATION PRESENT IN THE
FILES: AN ANALYSIS ON THE WEBSITE OF THE PUBLIC
ARCHIVES OF THE STATE OF SÃO PAULO
Pôster / Poster
248
RODRIGUES, Nandia Leticia Freitas.
Unesp / Marília
JORENTE, Maria José Vicentini.
Unesp / Marília
O desconhecimento, resultado do silenciamento e apagamento
sistemático sobre os fatos históricos envolvendo o protagonismo da população
negra na construção da sociedade brasileira, impactam diretamente na
compreensão da história do próprio país. Neste sentido, acredita-se que na
contemporaneidade, as Instituições Arquivísticas atreladas às novas Tecnologias
de Informação e Comunicação, sobretudo com a adesão massiva do ambiente
web, tem se constituído como espaços democráticos de integração social dos
indivíduos com seus passados e presentes, contribuindo assim para a
compreensão da história e memória da coletividade, a partir do livre acesso aos
documentos históricos de informação pública aos cidadãos, salvaguardados nos
Arquivos. No Brasil o acesso à informação é um direito constitucional do
cidadão e é respaldado pela Lei 12.527 aprovada em 2011, conhecida como Lei
de Acesso à Informação. Partindo desse pressuposto, a presente pesquisa,
embasada pela Ciência da Informação visa investigar a presença e a
disponibilização de documentação referente à história e memória da população
negra no website do Arquivo Público do Estado de São Paulo, atentando-nos
especialmente ao “Acervo Iconográfico” e o banco de dados intitulado
“Memoria da Escravidão”. Além disso, o Arquivo Público do Estado de São
Paulo através do software AtoM, criou o instrumento de pesquisa “Guia do
Acervo” que fornece informações referentes ao Arquivo e de seus fundo no
ambiente web. Neste sentido, com base no Design da Informação, pretende-se
analisar este ambiente a fim de constatar se a representação e o acesso às
informações disponibilizadas ao internauta são satisfatórios. A partir das
análises, contatou-se que o design da interface inicial do website não é
visualmente agradável, é significativamente confusa e pouco funcional, o que
dificulta a busca de informação e permanência do internauta no site. Na análise
do acevo iconográfico, recuperou-se uma quantidade significativa de imagem
referente aos negros, principalmente relacionada aos movimentos sociais
negros, no entanto, considerável parte dessas imagens encontra-se sem descrição
ou quaisquer informação que identifiquem os contextos das imagens. No banco
de dados “Memória da Escravidão” segundo informações contidas no site
encontra-se digitalizadas 11 caixas arquivo e 20 encadernados referentes ao
período escravista de 1764 a 1890. Os documentos recuperados neste banco de
dados são passiveis de downloads. Em nossa análise do software AtoM utilizado
na representação do “Guia do Acervo” é razoável, visto que as informações
249
apresentadas ao internauta informam sobre existência dos documentos no
ambiente físico do Arquivo e trás uma única imagem sobre o assunto procurado,
mas não possibilita o acesso direto ao documento. Acreditamos que a
interoperabilidade e convergência entre o software AtoM e o software
Archivematica viabilizaria uma melhora significativa na representação,
disponibilização e acesso da informação ao internauta.
The lack of knowledge, as a result of the silencing and systematic
erasure of historical facts involving the protagonism of the black population in
the construction of Brazilian society, directly affect the understanding and
understanding of the history of the country itself. In this sense, it is believed that
in contemporary times, Archival Institutions linked to the new Information and
Communication Technologies, especially with the massive adhesion of the web
environment, have been constituted as democratic spaces of social integration of
individuals with their past and present, thus contributing for the understanding
of the history and memory of the collectivity, from the free access to the
historical documents of public information to the citizens, safeguarded in the
Archives. In Brazil, access to information is a citizen's constitutional right and is
backed by Law 12,527 passed in 2011, known as the Access to Information
Law. Based on this assumption, this research, based on Information Science
aims to investigate the presence and availability of documentation regarding the
history and memory of the black population on the website of the Public
Archive of the State of São Paulo, paying special attention to the "Iconographic
Collection" and the database entitled "Memory of Slavery". In addition, the
Public Archive of the State of São Paulo through AtoM software, created the
research tool "Guide to the Collection" that provides information regarding the
Archive and its background in the web environment. In this sense, based on
Information Design, we intend to analyze this environment in order to verify if
the representation and access to the information made available to the Internet
user are satisfactory. From the analysis, it was contacted that the design of the
initial interface of the website is not visually pleasing, it is significantly
confusing and not very functional, which makes it difficult to search for
information and stay on the site. In the analysis of the iconographic acevo, a
significant amount of image related to the blacks was recovered, mainly related
to the black social movements, however, considerable part of these images is
without description or any information that identifies the contexts of the images.
In the database "Memory of Slavery" according to information contained in the
site is digitized 11 file boxes and 20 bound for the slave period from 1764 to
1890. The documents retrieved in this database are downloadable. In our
analysis of the AtoM software used in the representation of the "Guide to the
Collection" is reasonable, since the information presented to the internaut
inform about the existence of the documents in the physical environment of the
Archive and brings a single image about the subject sought but does not allow
250
the access direct to the document. We believe that the interoperability and
convergence between AtoM software and Archivematica software would enable
a significant improvement in the representation, availability and access of the
information to the Internet user.
NATUREZA DO CONHECIMENTO: PERSPECTIVAS DE
PLATÃO E DRETSKE
THE NATURE OF KNOWLEDGE: PERSPECTIVES OF PLATO
AND DRETSKE
Pôster / Poster
SALSMAM, Isabele Vieira.
Unesp / Marília
ALVES, Marcos Antônio.
Unesp / Marília
A concepção clássica de conhecimento tem origem em um dos diálogos
de Platão, o “Teeteto”. Nessa obra é investigada a natureza do conhecimento,
através do método maiêutico, pelas personagens Sócrates e Teeteto. Três
grandes hipóteses são elaboradas: Conhecimento como sensação, o saber
equivalente à opinião verdadeira; a definitiva, porém, contendo o problema da
circularidade, - que a filosofia continua discutindo nos dias atuais - crença
verdadeira justificada racionalmente. Por causa desse círculo vicioso, em que
não se consegue encontrar uma resposta definitiva do que seria uma justificação
racional satisfatória que não pressupõe conhecimento, filósofos posteriores a
Platão tentam tratar essa questão de diversas maneiras, herdando a concepção
platônica ou buscando substituí-la. Fred Dretske, filósofo contemporâneo, tenta
trazer uma caracterização de conhecimento que extrapola a concepção platônica.
Ele utiliza a noção de informação sugerida na Teoria Matemática da
Comunicação, preocupada com questões técnicas de uma comunicação efetiva,
tratando a informação de forma quantitativa, medindo o quanto de informação é
transmitida de uma fonte para um receptor através de um canal. Nesta postura,
quanto maior a liberdade de escolha em uma fonte, maior também é a sua
quantidade de informação. A partir dessa noção, Dretske caracteriza
conhecimento como crença causalmente sustentada por informação. O pensador
em questão defende haver uma relação entre a informação na fonte e a crença
gerada pela mesma no destino. A ação, ainda na perspectiva dretskeana, é
251
influenciada diretamente pela informação, através da criação de crenças e
conhecimento no sujeito cognitivo receptor das informações presentes no meio.
Assim, cadeias de relações informacionais geram ação. Isso pode diferir uma
ação, passível de ser considerada moral, de um movimento físico qualquer. O
presente trabalho tem o objetivo de expor, em linhas gerais, a concepção
clássica de conhecimento, e, consecutivamente, o problema referente a ela. Em
seguida, apresentamos a proposta dretskeana de caracterização do conhecimento
mencionada e de suas relações com a ação. A concepção platônica de
conhecimento é utilizada até hoje na filosofia, e, por mais que as problemáticas
persistam, dá início a uma discussão filosófica genuína, enquanto a abordagem
de Dretske tenta tratar a situação de um outro ponto de vista, talvez trazendo
mais possibilidades de avanços nessa discussão acerca da natureza do saber e de
suas relações com a ação.
The classical conception of knowledge originates in one of Plato’s
dialogues, the “Theaetetus”. In this work the nature of knowledge is investigated
through the maieutic method by the characters of Sócrates and Teeteto. Three
major hypothesis are made: knowledge as sensation, the knowing corresponding
to true and definitive opinion, although, containing the circularity problem, -
that philosophy continues discussing nowadays– true belief justified rationally.
Because of this circularity problem, in what you can’t find a definitive answer
of what would be a reasonable rational justification without presupposing
knowledge, post-platonic philosophers try to deal with this issue in several
ways, inheriting the Platonic conception or seeking to replace her. Fred Dretske,
contemporary philosopher, tries to bring a characterization of knowledge that
goes beyond the Platonic conception. He uses the notion of information
suggested in the Mathematical Theory of Communication, concerned with
technical issues of effective communication, treating the information
quantitatively, by measuring how much information is transmitted from a source
to a receiver through a channel. In this posture, the freer to choose the source is,
the greater is its amount of information. Departing from this notion, Dretske
features knowledge as belief causally supported by information. The thinker in
question argues there is a relationship between the information in the source and
the belief generated by it on the receiver. The action, still in dretskean
perspective, is directly influenced by the information through the creation of
beliefs and knowledge on the receiver cognitive subject by the information
present in the environment. Thus, chains of informational relations generate
action. This can differ an action passible of moral consideration from a random
physical movement. The present work aims to expose, in general terms, the
classical conception of knowledge and its consecutive problem, then to expose
the dreteskean proposal of characterization of the mentioned knowledge and its
relations with the action. The Platonic conception of knowledge is still
nowadays used in philosophy and however the problematics persists, it initiates
252
a genuine philosophical discussion, while Dretske's contemporary proposal tries
to deal with the situation from another point of view, perhaps bringing more
possibilities of advances in this discussion about the nature of knowledge and its
relation to action.
O PENSAMENTO COMPLEXO COMO CONCEPÇÃO
SISTÊMICA DO MUNDO
COMPLEX THINKING AS A SYSTEMIC CONCEPTION OF
THE WORLD
Pôster / Poster
SALVIO, Thiago de Souza.
Unesp / Marília
A partir de uma leitura sobre os temas principais que compõem o cerne
da filosofia de Edgar Morin, a saber, o pensamento complexo, bem como a
teoria sistêmica, temos aqui em vista o intuito de delinear concisamente os
aspectos elementares desta malha conceitual, seu fio condutor; indicar a
problemática atinente ao desafio endereçado pelas “diferentes avenidas” que
levam ao caminho da complexidade. Pois o pensamento complexo é animado
por uma tensão permanente entre a aspiração a um saber não fragmentado, não
compartimentado, nem redutor, e o reconhecimento do inacabado e da
incompletude de qualquer conhecimento. Num primeiro momento, suscitaremos
os componentes heterogêneos, propriedades emergentes que, contudo, se
organizam em unidade consoante, ou seja, o múltiplo diverso no uno idêntico,
simultaneamente, ressaltará a importância dum pensamento complexo que dê
conta desta correlação distinta, abordada pela interdisciplinaridade. Por
conseguinte, pautaremos os princípios fundamentais que norteiam a teoria, e
como desfecho, nos atentaremos a esta concepção sistêmica bem articulada. A
guisa de resultados podemos capitular os focos da nossa exposição. Veremos
que a complexidade não pretende solucionar os problemas epistemológicos
instanciados em seus mais diversos níveis, outrossim, aspira problematizá-los
numa articulação orgânica, no sentido que os conhecimentos produzidos não se
isolem, que nos eduquemos de forma crítica e antidogmática sem submeter os
saberes à caixas etiquetadas, em suma, munindo-nos do instrumental
interdisciplinar, buscando o diálogo necessário para uma concepção sistêmica
do mundo. Veremos o quão abrangente o princípio hologramático pode ser, e
temos plena liberdade filosófica de adotá-lo ou não, contudo, é de se admirar a
aplicabilidade metodológica do mesmo e os resultados profícuos que pode
253
engendrar. Em ultima análise, a implicação complexo-sistêmica culmina na
Ética e na política, desvelando a dimensão condicionante e constitutiva de toda
prática cognoscitiva, restringida ao âmbito científico, ao mesmo tempo em que
se pensa além, pois o pensamento complexo se estende para um plano de ações
ecossistêmicas, à cidadania planetária e humanizadora sem perder de vista o
padrão que nos liga aos demais seres sencientes, respeitando-os igualmente
como aos de nossa espécie.
From a reading on the main themes that make up the core of Edgar
Morin's philosophy, namely complex thinking as well as systemic theory, here
we intend to outline briefly the elementary aspects of this conceptual mesh, its
guiding thread; to indicate the problematic of the challenge addressed by the
"different avenues" that lead to the path of complexity. Thus complex thinking
is animated by a permanent tension between the aspiration to non-fragmented,
non-compartmentalized, and non-reducing knowledge, and the recognition of
the unfinished and incomplete knowledge. In the first place, we will raise the
heterogeneous components, emergent properties that, however, are organized in
a consonant unity, that is, the diverse multiple in the identical one,
simultaneously, will emphasize the importance of a complex thought that
accounts for this distinct correlation, addressed by interdisciplinarity. Therefore,
we will be guided by the fundamental principles that guide the theory, and as a
conclusion, we will consider this well-articulated systemic conception. As a
result of this, we can capitulate to the focus of our exposition. We will see that
complexity does not seek to solve the epistemological problems instantiated in
its most diverse levels, it also aspires to problematize them in an organic
articulation, in the sense that the knowledge produced is not isolated, we
educate ourselves critically and anti-dogmatically without submitting
knowledge to the labeled boxes, in short, equipping ourselves with the
interdisciplinary instruments, seeking the dialogue necessary for a systemic
conception of the world. We will see how comprehensible the hologramatic
principle can be, and we have full philosophical freedom to adopt it or not,
however, it is to be admired the methodological applicability of it and the
fruitful results it can engender. Ultimately, complex-systemic implication
culminates in ethics and politics, revealing the conditioning and constitutive
dimension of every cognitive practice, restricted to the scientific realm, at the
same time as thinking beyond, as complex thinking extends to a plane of
ecosystemic actions, to planetary and humanizing citizenship without losing
sight of the pattern that binds us to other sentient beings, respecting them
equally as those of our species.
254
ENCONTRABILIDADE DA INFORMAÇÃO NOS
RESPOSITÓRIOS INSTITUCIONAIS DA USP, UNESP E
UNICAMP: UM ENFOQUE NA AÇÃO DOS SUJEITOS
INFORMACIONAIS POR MEIO DA APLICAÇÃO DA
TECNOLOGIA EYE-TRACKING
FINDABILITY IN THE INSTITUTIONAL REPOSITORIES OF
USP, UNESP AND UNICAMP: A FOCUS ON THE ACTION OF
THE INFORMATION SUBJECTS THROUGH THE
APPLICATION OF EYE-TRACKING TECHNOLOGY
Pôster / Poster
SANCHEZ, Fernanda Alves.
Unesp / Marília
VECHIATO, Fernando Luiz.
Unesp / Marília
No âmbito da Ciência da Informação, a Encontrabilidade da
Informação se caracteriza pela interseção entre as funcionalidades dos
ambientes informacionais e as características dos sujeitos informacionais. Nesse
sentido, os repositórios institucionais que reúnem, organizam, disseminam e
fornecem visibilidade a produção acadêmico-científica das instituições de
ensino e pesquisa necessitam da aplicação de métodos, técnicas e atributos que
promovam a encontrabilidade da informação científica. Considerando a
relevância desses ambientes de acesso aberto para a comunidade acadêmico-
científica, objetiva-se verificar se os repositórios institucionais têm sido
implementados a partir de atributos que potencializem a encontrabilidade da
informação pelos sujeitos informacionais. Este estudo tem como enfoque os
repositórios institucionais das três universidades estaduais do estado de São
Paulo, USP, UNESP e UNICAMP, no intuito de oferecer recomendações para a
potencialização da encontrabilidade da informação aos seus sujeitos. Foi
utilizado o método quadripolar por conta da dinamicidade e flexibilidade para o
desenvolvimento do estudo, sendo ele composto por quatro polos:
epistemológico, teórico, técnico e morfológico. O polo epistemológico
contribuiu para abordar o paradigma pós-custodial da Ciência da Informação e a
Pós-Fenomenologia para fundamentar o estudo. O polo teórico permitiu buscar
aportes teóricos relacionados às temáticas que permeiam o objeto de pesquisa,
quais sejam: Repositórios Digitais, com ênfase nos Repositórios Institucionais, e
255
Encontrabilidade da Informação. O polo técnico evidencia os procedimentos
metodológicos para a realização da pesquisa bibliográfica e de revisão de
literatura para abordar os fundamentos epistemológicos e teóricos mencionados,
somados a pesquisa aplicada que ocorreu em duas fases, sendo a primeira a
aplicação do “Checklist para avaliação da Encontrabilidade da Informação em
Repositórios Institucionais” nos repositórios institucionais da USP, UNESP e
UNICAMP, por meio da técnica de observação, e a segunda referente à
aplicação de tarefas junto aos mestrandos dos Programas de Pós-Graduação em
Educação e Fonoaudiologia a partir da tecnologia de eye-tracking (rastreamento
ocular), juntamente com a técnica de protocolo verbal e entrevistas. O polo
morfológico se destina a apresentação dos resultados da pesquisa, bem como à
proposta de recomendações para os repositórios institucionais analisados. A
partir da análise com o checklist, foram observadas problemáticas referentes aos
seguintes atributos de encontrabilidade da informação: metadados, taxonomias
navegacionais, descoberta de informação, acessibilidade e usabilidade, e
mobilidade, convergência e ubiquidade. Em relação ao teste realizado com a
tecnologia eye-tracking, foi possível avaliar dentre os atributos de
encontrabilidade da informação o de descoberta de informação, além de alguns
comportamentos e preferências informacionais dos sujeitos diante dos três
repositórios institucionais, o que propiciou destacar alguns pontos importantes
para a pesquisa e essenciais para o desenvolvimento inicial das recomendações.
Até o momento da pesquisa foi possível propor as seguintes recomendações: a
elaboração de URL compreensível, o enriquecimento do mecanismo de busca,
levar em consideração a Intencionalidade do sujeito informacional,
disponibilizar a citação completa do objeto digital para referência bibliográfica e
inserção de plug-ins de redes sociais. Tais recomendações referem-se à
contribuição da pesquisa para a área da Ciência da Informação, no que condiz a
melhorias desses ambientes.
In the scope of Information Science, the Information Findability is
characterized by the intersection between the functionalities of the informational
environments and the characteristics of the informational subjects. In this sense,
institutional repositories that gather, organize, disseminate and provide visibility
to the academic-scientific production of teaching and research institutions need
the application of methods, techniques and attributes that promote the
availability of scientific information. Considering the relevance of these open
access environments to the academic-scientific community, the objective is to
verify if institutional repositories have been implemented based on attributes
that enhance information's reachability by informational subjects. This study
focuses on the institutional repositories of the three state universities of the state
of São Paulo, USP, UNESP and UNICAMP, in order to offer recommendations
for the enhancement of information's accessibility to its subjects. The
quadrupolar method was used because of the dynamicity and flexibility for the
256
development of the study, being composed of four poles: epistemological,
theoretical, technical and morphological. The epistemological pole contributed
to address the post-custodial paradigm of Information Science and Post-
Phenomenology to support the study. The theoretical pole allowed the search for
theoretical contributions related to the topics that permeate the research object,
namely: Digital Repositories, with emphasis on Institutional Repositories, and
Information Findability. The technical pole evidences the methodological
procedures for the accomplishment of bibliographical research and literature
review to address the mentioned epistemological and theoretical foundations,
added to the applied research that occurred in two phases, being the first the
application of the "Checklist for the evaluation of the Findability of the
Information in Institutional Repositories "in the institutional repositories of
USP, UNESP and UNICAMP, through the technique of observation, and the
second referring to the application of tasks to the master's students of the
Graduate Programs in Education and Speech-Language Pathology, using eye-
tracking, along with the technique of verbal protocol and interviews. The
morphological pole is intended to present the results of the research, as well as
to the proposed recommendations for the institutional repositories analyzed.
From the analysis with the checklist, problems related to the following metadata
attributes were observed: metadata, navigational taxonomies, information
discovery, accessibility and usability, and mobility, convergence and ubiquity.
In relation to the test performed with eye-tracking technology, it was possible to
evaluate information discovery attributes, as well as some information behaviors
and preferences of the subjects in front of the three institutional repositories,
which allowed to highlight some important points and essential for the initial
development of the recommendations. Until the moment of the research it was
possible to propose the following recommendations: the elaboration of an
understandable URL, the enrichment of the search engine, taking into account
the Intentionality of the informational subject, making available the complete
citation of the digital object for bibliographic reference and insertion of plug-ins
of social networks. These recommendations refer to the contribution of the
research to the area of Information Science, in terms of improvements in these
environments.
BIBLIOTECAS ACADÊMICAS EM DIREÇÃO ÀS INDÚSTRIAS
CRIATIVAS
ACADEMIC LIBRARIES MOVING ON UP THE CREATIVE
INDUSTRIES TRACK
Pôster / Poster
257
SANT-GERONIKOLOU, Stavroula.
University of Madrid-Charles III / Espanha
MARTÍNEZ-ÁVILA, Daniel.
Unesp / Marília
KOULOURIS, Alexandros.
University of West Attica
Bibliotecas e instituições de educação superior em todo o mundo estão
se adaptando a um ambiente em transformação em que novas abordagens
tecnológicas para o ensino e a aprendizagem estão transformando a natureza
mesma das universidades. E embora a criatividade e a inovação em bibliotecas
acadêmicas ainda possam ser desafiadoras frente a uma visão de mundo míope
persistente perpetuando uniformidade e reutilização e minimizando a taxa de
mudança radical, no entanto, as bibliotecas flexíveis e adaptáveis estão
gradualmente se transformando em centros de aprendizado alternativos
adotando abordagens ágeis em relação às necessidades do usuário em evolução
e buscando as colaborações radicais, processos de desconstrução e
reorganização cruciais para reposicionar a biblioteca como o centro da
“multiversidade”, a interpretação apropriada da universidade contemporânea,
em razão de sua competência e função cada vez mais diversificadas. Enquanto
as Indústrias Criativas Baseadas no Conhecimento estão se tornando alvo de um
importante foco de atenção em todo o mundo, à medida que os governos
começam a reconhecer o papel da criatividade como um recurso fundamental
para impulsionar a inovação e promover vantagem competitiva em uma
economia globalizada, as bibliotecas estão no meio uma transição contínua
marcada por sua intermediação e facilitação transformação transcendente da
velha missão para centros de aprendizado multiuso, catalisadores de criatividade
e âncoras de inovação dentro da organização, aplicando um espírito pioneiro no
desenvolvimento de pessoas inovadoras com fusão de habilidades,
colaborativamente gerando novas ideias e tecnologias de forma a melhorar a
produtividade e não apenas redesenhar, mas também reorientar os espaços e
práticas da biblioteca. Neste contexto e com a nossa mentalidade sobre o fato
amplamente reconhecido de que o valor central da biblioteca de pesquisa é
claramente criativo, consideramos que havia uma oportunidade de examinar a
posição da Biblioteca Acadêmica dentro do sistema das Indústrias Criativas.
Além de fornecer uma visão geral de (1) a atenção, peso e interpretação
atribuída às suas características, crescimento, intensidade criativa, valor e
conteúdo por diferentes modelos de classificação das Indústrias Criativas que,
258
no caso de organizações sem fins lucrativos, são subnotificados e subestimados,
(2) sua relação com a área das Indústrias Criativas como organização voltada ao
conhecimento e insights valiosos das perspectivas da comunidade sobre o tema
que facilitariam a articulação de recomendações direcionadas, esta primeira
pesquisa exploratória também é vista como um primeiro passo para informar o
processo de formação de um grupo de interesse especial que desenvolveria as
avenidas de resposta da comunidade de biblioteconomia acadêmica para esta
área desafiadora. Após uma revisão bibliográfica indicativa de uma lacuna de
pesquisa existente sobre o tema, partimos para complementar nosso trabalho
conduzindo uma pesquisa orientada a especialistas em Bibliotecas através da
distribuição de um questionário desenvolvido para registrar a compreensão da
comunidade de Biblioteconomia e Ciência da Informação sobre as maneiras
pelas quais a criatividade em bibliotecas é apoiada dentro e fora das Indústrias
Criativas. Análise inicial dos resultados preliminares em que os Profissionais da
Informação, reconhecendo uma intensidade criativa de biblioteca
predominantemente moderada e indicando a falta de apoio institucional,
informação, habilidades de RH e financiamento como principais impedimentos
à criatividade da biblioteca, argumentam que bibliotecas acadêmicas devem
definitivamente fazer parte da classificação e que os desenvolvimentos das
bibliotecas têm grande potencial para melhorar sua posição no ranking das
Indústrias Criativas em algum momento no futuro, sugere (1) a revisão dos
atuais quadros de avaliação e critérios de inclusão das Indústrias Criativas e (2)
a necessidade de uma alavancagem sistemática de novos conhecimentos
práticos, interdisciplinares, informais, aplicados e contextuais que poderiam
levar a mais valor, crescimento, visibilidade e parcerias inimagináveis tanto para
o círculo de alunos, professores e funcionários, quanto para a comunidade
global.
Libraries and Higher Education institutions worldwide are adapting to a
changing environment where new technology-intensive approaches to teaching
and learning are transforming the very nature of universities. And although
creativity and innovation in academic library may still be occasionally
challenging with a persistent myopic worldview perpetuating sameness and
reutilization and minimizing the rate of radical change, nevertheless libraries
flexible and adaptive by default are gradually transforming to alternative
learning centres by adopting agile approaches towards user evolving needs and
pursuing the radical collaborations, deconstruction and reorganization processes
crucial to repositioning the library at the centre of ‘multiversity’, the appropriate
interpretation of contemporary university on account of its increasingly diverse
remit and function. While Creative Knowledge-based Industries are becoming
the subject of an important focus of attention around the world as governments
begin to recognise the role of creativity as a key resource in driving innovation
and promoting competitive advantage in a globalized economy, libraries are in
259
the midst of an ongoing transition marked by their brokerage and facilitation
old-mission-transcending transformation to multipurpose learning centres,
creativity catalysts and innovation anchors within the organization by applying a
pioneering spirit in developing innovative fusion-skilled people, collaboratively
generating new ideas and technologies, enhancing scholar productivity and not
just redesigning but also repurposing library spaces and practices. Within this
context and with our mindset on the widely acknowledged fact that research
library central value is clearly creative, we considered there was a timely
opportunity to examine Academic Library position within the Creative
Industries system. Besides providing an overview of (1) the attention, weight
and interpretation attributed to its characteristics, growth, creative intensity,
value and content by different Creative Industries classification models that in
the case of non-profit organisations is often underreported and underestimated,
(2) its relationship with the Creative Industries realm as knowledge-intensive
organization and valuable insights into community perspectives on the topic that
would facilitate the articulation of targeted recommendations, this first
explorative research is also envisioned as a first step to informing the process of
formation of a special interest group that would develop the avenues of
academic librarianship community response to this challenging area. Following
a literature review indicative of an existing research gap on the topic, we set off
to complement our work by conducting an Library expert-oriented survey
through distribution of a self-developed questionnaire aiming to record Library
and Information Science community understanding of ways in which library
creativity is supported within and beyond the Creative Industries. Initial analysis
of preliminary findings where Information Professionals, acknowledging a
predominant moderate library creative intensity and indicating the lack of
institutional support, information, HR skills and funding as top library creativity
impediments, argue that academic libraries should definitely be part of the
Creative Industries classification and that library developments hold great
potential to upgrading its position in the Creative Industries rankings sometime
in the future, suggests (1) the revision of current Creative Industries evaluation
frameworks and classification inclusion criteria and (2) the need for a systematic
leverage of library-generated practical, interdisciplinary, informal, applied,
contextual new knowledge which could eventually lead to more value, growth,
visibility and unimaginable partnerships for both the closely affiliated circle of
students, faculty and staff and the broader global community.
RECURSOS SONOROS E LINKED DATA: ABORDAGEM
SOBRE METADADOS
SOUND RESOURCES AND LINKED DATA: METADATA
APPROACH
260
Pôster / Poster
SANTOS, Amanda Azevedo.
UFSCar
SIMIONATO, Ana Carolina.
UFSCar
Com o aumento dos fluxos informacionais no contexto da Web, em
decorrência ao amplo desenvolvimento das tecnologias de informação e
comunicação, a aceitação, e depósito de recursos informais na Web, resultou em
um aumento gradativo de sua utilização, o que despertou ao campo da Ciência
da Informação. A necessidade de promover e trabalhar com estudos acerca do
desenvolvimento de ferramentas, tecnologias e metodologias para o tratamento
mais adequado dos recursos informacionais, encontrados e disseminados na
Web de forma exponencial. No contexto que engloba os recursos sonoros que na
pesquisa é atribuído ao tipo de recurso informacional, existem ferramentas que
podem ser utilizadas, a exemplo dos metadados que possuem a capacidade de
identificar dados a propiciar a organização e representação, de forma a evitar
perdas de dados em transferências, complicações na compreensão destes dados,
além de afetar diretamente na exatidão dos processos de recuperação e acesso.
Analisando a forma como os datasets relacionados ao conteúdo e contexto
musical BBC Music e MusicBrainz que estão disponíveis no projeto Linking
Open Data é possível extrair novas formas de representação que podem
contribuir na representação e organização deste recurso em catálogos digitais.
Os procedimentos metodológicos utilizados são teóricos e aplicados, por uma
análise exploratória e por meio de uma revisão bibliográfica sobre os temas
principais dessa pesquisa, além da utilização do software OpenRefine, uma
ferramenta criada em 2010 pela empresa Google, que inicialmente era
denominada como Google Refine, desenvolvida para limpar, converter,
organizar e reconciliar dados, além de estende-los à Web. Os resultados
apresentam como os metadados são a base e podem contribuem de forma
positiva e efetiva para a representação e organização dos dados sonoros, assim
como revelam que a adoção de novas ferramentas, suportes e desenvolvimento
de políticas que ofereçam permissões para a participação da comunidade
externa, contribuem com o desenvolvimento de catálogos digitais.
With the increase of information flows in the context of the Web, as a
result of the extensive development of information and communication
technologies, the acceptance and deposit of informal resources on the Web
resulted in a gradual increase in its use, of Information. The need to promote
261
and work with studies on the development of tools, technologies and
methodologies for the most appropriate treatment of information resources
found and disseminated on the Web in an exponential way. In the context that
encompasses the sound resources that in the research is attributed to the type of
information resource, there are tools that can be used, such as metadata that
have the ability to identify data to provide organization and representation, in
order to avoid data loss in transfers, complications in the understanding of this
data, besides directly affecting the accuracy of the processes of recovery and
access. Analyzing how the datasets related to the content and music context
BBC Music and MusicBrainz that are available in the Linking Open Data
project can extract new forms of representation that can contribute to the
representation and organization of this resource in digital catalogs. The
methodological procedures used are theoretical and applied, through an
exploratory analysis and through a bibliographic review on the main themes of
this research, as well as the use of OpenRefine software, a tool created in 2010
by Google, which was initially called Google Refine , developed to clean,
convert, organize and reconcile data, as well as extend it to the Web. The results
show how the metadata is the basis and can contribute positively and effectively
to the representation and organization of sound data, as well as revealing that
the adoption of new tools, supports and development of policies that offer
permissions for the participation of the external community contribute to the
development of digital catalogs.
GESTIÓN BIG DATA COMO ESTRATEGIA DE EXPANSIÓN Y
MEJORA EN LA TOMA DE DECISIÓN DE LAS PEQUEÑAS
EMPRESAS
BIG DATA MANAGEMENT AS A STRATEGY FOR
EXPANSION AND IMPROVEMENT IN MICRO AND SMALL
BUSINESS DECISION-MAKING
Comunicação Oral / Oral Communication
SANTOS, Beatriz Rosa Pinheiro dos.
Unesp / Marília
BARBOSA, Everaldo Henrique dos Santos.
USP / Ribeirão Preto, Unesp / Marília
DAMIAN, Ieda Pelógia Martins.
262
Unesp / Marília
Actualmente, en el amplio contexto tecnológico e informativo en el que
las empresas están insertadas es imposible no hablar de la importancia de la
información y del conocimiento como recursos escenciales para el desarrollo de
las acciones y, sucesivamente, para el progresivo crecimiento de las
organizaciones. Sin embargo, antes de gestionar información y conocimiento,
estas empresas se ocupan de una gran cantidad de datos, que, aún siendo
elementos primarios, son materia prima para la construcción de información, y,
también, son considerados elementos de análisis y gestión, pues los datos,
constituyen activos organizacionales. Este gran cúmulo de datos recibe el
nombre de Big Data, y se caracteriza por el volumen de datos generados,
almacenados, disponibles en las diversas plataformas digitales existentes,
herramientas de comunicación e investigación de mercado, redes sociales, entre
muchas otras. Es muy común que las personas asocien el Big Data a un proceso
existente sólo en grandes corporaciones, generadoras de un extenso capital; sin
embargo, ese pensamiento periódico y tradicional necesita cambiarse, el
escenario descrito como Big Data está presente,también, en las pequeñas
empresas justamente porque éstas utilizan en demasía las redes sociales para
expandir y mantener su negocio, a través de una publicidad más accesible y en
conformidad con su tamaño.Se puede afirmar que las pequeñas empresas sólo
logran estabilizarse y fortalecerse en el mercado si cuentan con el apoyo
analítico y gerencial de datos, información y conocimiento. El primer paso para
trabajar el contexto de Big Data, en las pequeñas empresas, es hacer que los
pequeños empresarios tomen conciencia de la pertinencia de trabajar los datos
para optimizar sus procesos de decisión y sus actividades diarias en las
organizaciones, a través de un conjunto de acciones que, propicien el
almacenamiento, la organización, el acceso y la recolección de un gran volumen
de datos consistentes, sistematizados y con calidad; a todo este proceso, en los
últimos tiempos, se ha denomindo Big Data Management. Ante estas
contextualizaciones, la investigación parte del siguiente problema: ¿Es posible
proponer una gestión Big Data en el contexto de pequeñas empresas?
Consecuentemente, el objetivo gira en torno a proponer un modelo con
directrices para la implantación de un Big Data Management de bajo costo que
pueda expandir y mejorar los procesos de toma de decisiones de las pequeñas
empresas. Para ello, se realiza una investigación exploratoria y bibliográfica, de
cuño teórico y naturaleza cualitativa. Se sabe que las pequeñas empresas poseen
enorme participación en la economía de los países, ofrecen empleo a un número
considerable de personas y contribuyen al desarrollo social de las naciones.
Ante este escenario, es imprescindible que la comunidad científica trabaje
formas de mejorar el comportamiento administrativo de las pequeñas empresas;
estas sobresalen con calidad en el actual universo informativo, donde los datos,
263
la información y el conocimiento forman un trípode esencial para el aumento de
la capacidad competitiva de esas organizaciones.
Nowadays, in the vast technological and informational context in which
companies are inserted it is absolutely impossible not to speak of the importance
of information and knowledge as promising resources for the development of
actions and successively for the progressive growth of organizations. However,
prior to information and knowledge, these same companies deal with a large
amount of data, which, although being a primary element, is a raw material for
the construction of information, and should also be considered an analytical and
which data are also organizational assets. This huge amount of data is called Big
Data, which in turn is characterized by the volume of data generated, stored,
accessed and accessed by the various existing digital platforms, communication
and market research tools, social networks, among many others. In a very
common way, people tend to associate Big Data as a process existing only in
large corporations, which generates an extensive capital, however, this periodic
and traditional thinking needs to be properly oriented and modified, whereas the
scenario described as Big Data is also present in small businesses, precisely
because they use too much social networks to expand and maintain their
business, through more accessible advertising and in accordance with its size, in
addition, it can be said that small businesses are only able to stabilize and
strengthen in the market if they have the analytical and managerial support of
data, information and knowledge. Thus, the first step in working the Big Data
context in small companies is to make small business owners aware of the
relevance of working the data to optimize their decision-making processes and
their daily activities in organizations, through a set of actions that provide the
storage, organization, access and collection of a large volume of coherent,
systematized and valuation data, which can be called Big Data Management. In
view of these contextualizations, the research starts with the following problem:
Is it possible to propose Big Data management in the context of small
companies? The goal is to propose a model with guiding guidelines for the
implementation of a low cost Big Data Management that can expand and
improve the decision making processes of small companies. For that, an
exploratory and bibliographical research was carried out, with a theoretical and
qualitative nature. It is known that small companies have a large share of the
economy, employ a good part of the population and also contribute to the social
character of the country, so the research is justified because it is imperative that
the scientific academy work ways to improve the administrative behavior of
small companies, so that they stand out with quality in the current information
universe, where data, information and knowledge form an essential tripod to
increase the competitive capacity of these organizations.
264
A INFORMAÇÃO E A INTELIGÊNCIA COMO COMPONENTE
ESTRATÉGICO PARA AS ORGANIZAÇÕES RURAIS
THE INFORMATION AND INTELLIGENCE AS A STRATEGIC
COMPONENT FOR RURAL ORGANIZATIONS
Pôster / Poster
SANTOS, Carlos Eduardo Moreno dos.
Unesp / Marília, FACAP
JORGE, Carlos Francisco Bitencourt.
Unesp / Marília, FACAP
MACHADO, João Guilherme de Camargo Ferraz.
Unesp / Marília
O grande volume de informações tornou-se elemento primordial nas
empresas no ambiente competitivo, pois está em todos os processos
organizacionais tornando-se um importante componente estratégico. Nesse
sentido, o agronegócio é um setor que reúne peculiaridades que o diferencia dos
demais mercados, principalmente na produção rural. Como a produção rural está
envolvida ‘antes da porteira’, ‘dentro da porteira’ e ‘depois da porteira’,
consequentemente comtempla um enorme número de informações, muitas
disponíveis nos ambientes web. As organizações da produção rural para serem
mais assertivas necessitam fazer uso da informação, sendo assim, o processo de
inteligência que visa à captura, analise e a disseminação da informação passa a
ser fundamental para essas organizações. A inteligência no mercado competitivo
é fundamental e, proporciona as organizações a possibilidade de antecipar-se as
situações, além de proporcionar uma melhor compreensão dos atores de seu
cenário. Dessa maneira o objetivo dessa pesquisa consiste em identificar a
importância da informação nos ambientes web para a produção rural frente à
construção da inteligência no processo de tomada de decisão. Uma das grandes
dificuldades do gestor rural está no processo decisório, pois normalmente
buscam soluções baseadas no passado e não observam as mudanças atuais no
seu ambiente competitivo. Quando se observa as especificidades do agronegócio
é possível identificar à complexidade de se fazer a gestão do mesmo, afinal
essas organizações atuam com aspectos incontroláveis como o clima
(fenômenos naturais), a perecibilidade dos produtos agropecuários,
265
sazonalidade, tecnologias e entre outros. Sendo assim, a presente pesquisa
chama a atenção do produtor rural para a valorização da informação do
ambiente web que consequentemente pode se transformar em inteligência. Com
isso, espera-se que os gestores da produção rural possam adquirir técnicas
aprimoradas de suas atividades, ou seja, possam ser capazes de identificar e
trabalhar com os as informações que se relacionam com o processo ‘dentro da
porteira’; As informações sobre a cotação de preço de insumos, tendências de
mercados em relação à ração, remédios veterinários entre outras informações
pertinentes ao elo, ‘antes da porteira’, também devem ser exploradas pela
inteligência enquanto processo. As atividades ‘depois da porteira’ também
necessitam da atividade de inteligência, afinal, nesse processo estão inseridas
importantes informações sobre o produtor, melhores formas de comercialização,
antever as preferências dos consumidores, assimilar possíveis novas regulações
e leis no setor e antecipar situações do mercado competitivo por meio das
transformações dessas informações em inteligência. Todos esses processos
podem consumir as informações disponíveis no ambiente web, uma vez que esse
ambiente possui um grande número de dados do agronegócio. Nesse sentido a
pesquisa tem como objetivo mapear as principais fontes e desenvolver
parâmetros para os produtores rurais obterem um melhor aproveitamento das
informações de seu cenário.
The large amount of information has become a key element in
companies in the competitive environment, since it is in all organizational
processes, becoming an important strategic component. Therefore, agribusiness
is a sector that brings together peculiarities that differentiate it from other
markets, especially in rural production. As rural production is involved 'before
the portress', 'inside the portress' and 'after the portress', consequently
contemplates a large number of information, many available in web
environments. The rural production organizations to be more assertive need to
make use of information, so the intelligence process that aims to capture,
analyze and disseminate information becomes fundamental for these
organizations. Intelligence in the competitive marketplace is critical, providing
organizations with the opportunity to anticipate situations, as well as providing a
better understanding of the actors in their scenario. In this way the objective of
this research is to identify the importance of information in web environments
for rural production in front of the construction of intelligence in the decision
making process. One of the great difficulties of the rural manager is in the
decision making process, as they usually seek solutions based on the past and do
not observe the current changes in their competitive environment. When one
observes the specificities of agribusiness, it is possible to identify the
complexity of managing it, after all, these organizations act with uncontrollable
aspects such as the climate (natural phenomena), the perishability of agricultural
products, seasonality, technologies and others. Therefore, the present research
266
draws the attention of the rural producer to the valorization of the information of
the web environment that can turn into intelligence. Thus, it is expected that
managers of rural production can acquire improved techniques of their
activities, that is, they can be able to identify and work with the information that
relates to the process 'inside the portress'; Information on input prices, market
trends in relation to feed, veterinary remedies and other information relevant to
the link, 'before the portress', should also be explored by intelligence as a
process. After-the-door activities also require intelligence activity. In the
process, important information about the producer, better marketing,
anticipating consumer preferences, assimilating possible new regulations and
laws in the industry and anticipating market situations through the
transformation of this information into intelligence. All these processes can
consume the information available in the web environment, since this
environment has a large number of agribusiness data. In this sense, the research
aims to map the main sources and develop parameters for the rural producers to
obtain a better use of the information of their scenario.
A MATÉRIA E SUAS TRANSFORMAÇÕES: A RELAÇÃO
ENTRE CORPO E MENTE, SEGUNDO DIDEROT
MATTER AND ITS TRANSFORMATIONS: THE RELATION
BETWEEN BODY AND MIND, ACCORDING TO DIDEROT
Pôster / Poster
SANTOS, Danielly Lima.
Unesp / Marília
PORTICH, Ana Maria.
Unesp / Marília
Neste trabalho, será exposto o materialismo defendido por Diderot n’O
Sonho de D’Alembert. Neste texto redigido a partir de 1769, Diderot trata da
relação entre corpo e mente por um viés materialista/monista, explicando como
duas coisas aparentemente tão diferentes como o pensamento, imaterial e
indivisível, e o corpo, material e divisível, estão conectadas. Descarta
diretamente o dualismo substancial cartesiano, deixando claro que tudo é
matéria (sensível), e a diferença se dá apenas na sucessiva transformação da
matéria de sensibilidade inerte para matéria de sensibilidade ativa. Ou seja, do
não inteligente deriva o inteligente. Diderot trata ainda da questão do eu sob um
267
viés materialista e até certo ponto determinista. Diderot compara o eu a um feixe
de fios, demostrando qual o processo de transformação que esse feixe de fios
passou para chegar na forma atual de feixe de fios: ele era algo imperceptível,
formado pelas moléculas de seu pai e sua mãe, tornou-se um fio delgado e
depois um feixe de fios. Por um processo de nutrição e transformação das
moléculas, cada fibra do feixe de fios se transforma em um órgão,
extremamente suscetível à sensibilidade. Algumas das sensações percebidas são
mais fracas, outras mais marcantes, e para Diderot são essas sensações mais
marcantes que darão origem à memória, logo são elas que possibilitam a ideia
de um eu. Mas Diderot visualiza o eu como uma ilusão criada por nós, pois, na
sucessiva transformação do todo que é a matéria, cada indivíduo é alterado.
Participamos desse todo travestido em várias formas, não tendo assim o
conhecimento do que seremos daqui a um ano ou um século, por isso é
necessário observar o processo de transformações sucessivas por que a matéria
passou para chegar à forma atual. Portanto, só podemos conhecer a natureza do
pensamento através do processo de transformação da matéria. Diderot também
descarta a ideia de vício e de virtude, porque, se o homem age de maneira X, é
porque ele não pode agir de maneira Y. Pressupor que o homem que age de
maneira X pode agir de maneira Y, é dizer que ele pode ser ele e às vezes ser
outro, o que é inconcebível para Diderot. Sendo assim, consideramos que sua
filosofia se caracterize por um determinismo em potencial.
In this work, the materialism defended by Diderot in D'Alembert's
Dream will be exposed. In this text written in 1769, Diderot deals with the
relationship between body and mind under a materialistic / monistic bias,
explaining how two apparently different things such as the thought, immaterial
and indivisible, and the material and divisible body are connected. He directly
dismisses the substantial Cartesian dualism, making it clear that everything is
matter (sensible), and the difference only occurs in the successive
transformation of matter from inert sensitivity to matter of active sensitivity.
That is, from the non-intelligent derives the intelligent. Diderot also deals with
the issue of the Self under a materialistic, and to some extent deterministic bias.
Diderot compares the self to a bundle of wires, demonstrating the process of
transformation which this bundle of wires went through, in order to arrive at the
present form of bundle of wires: it was something imperceptible formed by its
father´s and mother´s molecules, became a thin wire and then a bundle of wires.
Through a process of nutrition and transformation of the molecules, each fiber
of the wire bundle becomes an organ, extremely susceptible to sensitivity. Some
of the perceived sensations are weaker, others more striking, and for Diderot are
those most striking sensations that will give rise to memory, therefore they are
who enable the idea of a self. But Diderot sees the self as an illusion created by
us, for in the successive transformation of the whole which consists of matter,
each individual is altered. We take part in this whole in various forms, not
268
having thus the knowledge of what will we be in a year or a century, so it is
necessary to observe the process of successive transformations by which matter
has passed to arrive at the present form. Therefore, we can only know the nature
of thought through the process of matter transformation. Diderot also dismisses
the idea of vice and virtue, because if one acts in an X-way, it is because one
cannot act in a Y-way. Supposing that the one who acts in a X-way can act in a
Y-way, it is like saying that one can be one, and sometimes be another one,
which is inconceivable to Diderot. Therefore, we consider that its philosophy is
characterized by a potential determinism.
IMPACTOS DOS BIG DATA NA SOCIEDADE
CONTEMPORÂNEA
BIG DATA IMPACTS ON CONTEMPORARY SOCIETY
Pôster / Poster
SANTOS, Lyniker Martins.
Unesp / Marília
NOVELLI, Pedro Geraldo Aparecido.
Unesp / Marília
O desenvolvimento das tecnologias da informação acrescentou à
sociedade contemporânea duas características impactantes: uma grande
quantidade de informação e uma grande velocidade de propagação de
informação. Estas quantidade e velocidade de informação estão atreladas à
intensificação do uso de redes sociais como o facebook, twitter e Instagram. As
informações geradas pelas redes sociais estão sendo armazenadas por grandes
empresas com a finalidade de conhecerem melhor seus consumidores para
consequentemente fazer melhor marketing e obter maior lucro. A ferramenta
que permite a análise de dados pessoais nas redes sociais é o processamento dos
big data, este é um conjunto de dados armazenados que possui uma grande
variedade, velocidade, volume, veracidade e valor. O advento e influência dos
big data provoca discussões no âmbito da ética e da política, uma vez que as
empresas não solicitam autorização dos indivíduos para manipular os seus
dados, ou seja, dados pessoais como nome, localização, opinião política e
desejos de determinados produtos são usados sem nosso consentimento para
atender a interesses particulares das empresas. Desta maneira, na época dos big
data uma das discussões filosóficas que se instala na ética diz respeito à
269
violação de privacidade que as empresas cometem ao usarem nossos dados sem
a nossa autorização, isto fere diretamente a nossa liberdade, pois enfraquece a
capacidade de autodeterminação, ou seja, não há a possibilidade do indivíduo
determinar para onde vão seus dados, nem para o quê eles serão utilizados. Por
sua vez, na área da política os big data trazem implicações no âmbito do
processo eleitoral, porque os dados coletados na internet são usados como
parâmetro para a propaganda política, ou seja, os big data adquirem grande
influência na tomada de decisão da população, como foi demonstrado nas
últimas eleições americanas. Assim sendo, os objetivos desse trabalho são
discutir as implicações éticas do uso dos big data, mais especificamente no que
tange à liberdade de autodeterminação em relação aos dados que produzimos na
internet e discutir a influência dos big data no processo de tomada de decisão no
âmbito eleitoral.
The development of information technologies has added to
contemporary society two characteristics: a great amount of information and a
great speed of propagation of information. This amount and speed of
information are linked to the intensification of the use of social networks like
facebook, twitter and Instagram. The information generated by social networks
is being stored by large companies in order to get to know their consumers
better in order to do better marketing and profit. The tool that allows the
analysis of personal data in social networks is the processing of big data, this is
a set of stored data that has a great variety, speed, volume, truth and value. The
advent and influence of the big data provokes ethical and political discussions,
since companies do not request the authorization of individuals to manipulate
their data, that is, personal data such as name, location, political opinion and
desires of certain products are used without our consent to serve the private
interests of the companies. Thus, at the time of the big data, one of the
philosophical discussions that takes place in ethics concerns the violation of
privacy that companies commit when using our data without our authorization,
this directly hurts our freedom, because it weakens the capacity for self-
determination, that is, there is no possibility for the individual to determine
where their data goes, nor for what they will be used. On the other hand, in the
area of politics the big data have implications in the scope of the electoral
process, because the data collected on the Internet are used as a parameter for
political propaganda, that is, the big data acquire great influence in the decision
making of the population, as demonstrated in the last American elections. Thus,
the objectives of this paper are to discuss the ethical implications of the use of
big data, specifically regarding the freedom of self-determination in relation to
the data we produce on the Internet and to discuss the influence of the big data
on the decision-making process within the electoral scope.
270
PADRÃO DE METADADOS VRA CORE PARA
REPRESENTAÇÃO DE ACERVOS ARQUITETÔNICOS: UMA
PROPOSTA PARA BIBLIOTECAS DO ESTADO DE SÃO
PAULO
METADATA STANDARD VRA CORE FOR THE
REPRESENTATION OF ARCHITECTURAL COLLECTIONS: A
PROPOSAL FOR THE LIBRARIES OF THE STATE OF SÃO
PAULO
Pôster / Poster
SANTOS, Nínive Elisabete Ferreira dos.
Unesp / Marília
ALVES, Rachel Cristina Vesu.
Unesp / Marília
A organização e representação dos diferentes acervos de bibliotecas
depende do uso de formatos de descrição ou padrões de metadados. Atualmente,
os metadados desempenham um papel importante para a representação de
diferentes tipos de recursos informacionais em ambientes físicos e
principalmente em ambientes digitais. Um exemplo de recurso informacional
específico a ser citado, objeto de estudo desta pesquisa, são os materiais
arquitetônicos: croquis, plantas arquitetônicas (físicas ou digitais), maquetes,
renders de softwares do tipo CAD (computer aided design), memoriais
descritivos, desenhos, microfichas, microfilmes, negativos de vidro, fotografias,
projetos, e esses mesmos recursos em suportes para preservação, entre outros. A
produção de materiais arquitetônicos são o legado de seus produtores e servem
de base para pesquisas de estudantes, pesquisadores e profissionais da área de
Arquitetura e Urbanismo, por isso devem ser representados para acesso e
preservação ao longo do tempo. Considerando as poucas bibliotecas do estado
de São Paulo que possuem acervo arquitetônico, algumas com materiais de
arquitetos famosos e renomados, como representar adequadamente este tipo de
acervo para refletir as características específicas desses recursos, garantindo seu
acesso e preservação ao longo do tempo? A proposta desta pesquisa é analisar a
forma de representação atual dos acervos de materiais arquitetônicos das
Bibliotecas do Estado de São Paulo e identificar se os padrões de metadados
emergentes, em especial o padrão de metadados VRA Core, pode contribuir
para uma representação mais adequada desses materiais em ambiente digital. A
271
metodologia constitui-se em um estudo exploratório e descritivo, que coletará
dados através de um levantamento bibliográfico a ser realizado nas fontes de
informação da área de Ciência da Informação, Arquitetura, Catalogação e no
site oficial do padrão de metadados VRA Core, entre outras fontes considerados
relevantes para a pesquisa. Como resultados parciais destaca-se que alguns dos
acervos arquitetônicos encontrados, por meio de catálogos online de suas
bibliotecas, utilizam o formato MARC 21 para a representação desses materiais.
Entretanto, algumas instituições internacionais utilizam o padrão de metadados
VRA Core para representação de seus recursos arquitetônicos e outros recursos
informacionais relacionados. Portanto, considera-se importante a realização
deste estudo para analisar os formatos e padrões de representação utilizados no
momento e sua relação com padrões de metadados emergentes desta área.
Espera-se com a realização desta pesquisa a análise entre os formatos e padrões
de metadados, além de apontar sugestões para melhorias na representação dos
acervos arquitetônicos.
The organization and representation from the different collections of
libraries it depends on the use of formats of description or metadata standards.
Currently, the metadata plays an important role for the representation of
different types of information resource in physical environments and especially
in digital environments. An example of specific informational resource to be
quoted, study object of this research, are the architectural materials: architectural
plan, mockup, renders of the type CAD (computer aided design), descriptive
memorials, drawings, microfiches, glass negatives, photograph, projects, and
these same resources on supports for preservation, among others. The
production of architectural materials are the legacy of its producers and serve as
the basis for student research, researcher and professionals of the area of
Architecture and Urbanism and, consequently, they should be represented for
access and preservation over time. Considering the few libraries in the state of
São Paulo that have architectural collection, some with materials of famous and
renowned architects, how to adequately represent this type of collection to
reflect the specific characteristics of these resources, guaranteeing their access
and preservation over time? The proposal of this research is to analyze the
current form of representation of the collections of architectural materials of the
Libraries of the State of São Paulo and identify whether metadata standards
emerging, in especially the metadata standard VRA Core, can contribute to a
representation more suitable these materials in a digital environment. The
methodology if constitutes an exploratory and descriptive study, which will
collect data through of a bibliographical survey to be carried out in the
Information Sources of Information Science, Architecture, Cataloging and in the
official website of the VRA Core metadata standard, among others sources
considered relevant to the research. As partial results stands out it that some of
the architectural collections found, through online catalogs of the libraries, use
272
the MARC 21 format for the representation of these materials. However, some
international institutions use the VRA Core metadata standard for representation
of their architectural resource and other related information resources.
Therefore, it is considered important to perform this study to analyze the
formats and patterns of representation used at the moment its relation with
metadata standards emerging in this area. It is expected with the realize this
research the analyze in between of formats and metadata standards, besides of to
point suggestions for improvements in the representation of the architectural
collections.
MÍDIAS SOCIAIS: INTERFACE PARA MEMÓRIA
INSTITUCIONAL E O CRESCIMENTO DA INDÚSTRIA
SOCIAL MEDIA: INTERFACE FOR INSTITUTIONAL
MEMORY AND GROWTH OF INDUSTRY
Pôster / Poster
SANTOS, Waneska Cardoso dos.
UEL
MOLINA, Leticia Gorri.
UEL
SANTOS, Juliana Cardoso dos.
UEL
Mídias sociais são sistemas projetados para possibilitar a interação
social a partir do compartilhamento e da criação colaborativa de informação nos
mais diversos formatos. Com o intuito de identificar a importância das mídias
sociais no contexto industrial, este ensaio teórico aborda as temáticas mídias
sociais, memória institucional e a interface das mesmas com a indústria.
Objetivou-se com este estudo evidenciar por meio da literatura, a importância
das mídias sociais como ferramenta de pesquisa, aproximação e instrumento de
relacionamento neste ambiente competitivo. Como método, elencou-se o ensaio
teórico, que permitiu compreender melhor o objeto e fenômenos investigados.
Além disso, o estudo configura-se como descritivo exploratório, aprofundando o
conhecimento a respeito das temáticas e estabelecendo relações entre a
importância das mídias sociais e da memória institucional para o crescimento da
273
industrial. Foi possível, por meio da análise da literatura, verificar que as mídias
sociais constituem um ambiente comunicativo, formativo e informativo. Além
disso, considera-se importante que as instituições se esforcem para que as
mesmas sejam lugares de compartilhamento de dados, informação e
conhecimento, pois dada a conexão global é importante que a reconheçamos
como elemento de desenvolvimento da humanidade e consequentemente do
ambiente institucional. Ao refletir a respeito da memória institucional, fica clara
a complexidade do conceito e sua hibridez. Para que seja efetiva, deve fazer
parte da rotina institucional e deve ser atualizada, estimulada e considerada uma
das estratégias da instituição, visto que se constitui da troca de recordações
pessoais e institucionais, que servem como suporte para o repasse de informação
e tomada de decisão. Desta forma, ao compartilhar informações todos ganham,
pois o contato entre os pares faz com que seja possível a construção de alicerces,
desenvolvendo assim, ações que tem como base a troca de informações. As
mídias sociais no ambiente institucional, permitem que os indivíduos ou grupos
se articulem em torno de um interesse, transformando e incorporando grupos de
campos teóricos e ideológicos diversos, possibilitando assim um grande
potencial de interação significantemente estratégico para a organização.As
considerações parciais reafirmam a importância das mídias sociais e sua
interface com a memória institucional para o crescimento da indústria.
Social media are systems designed to enable social interaction through
sharing and collaborative creation of information in the most diverse formats. In
order to identify the importance of social media in the industrial context, this
theoretical essay approaches the themes of social media, institutional memory
and their interface with industry. The objective of this study was to highlight,
through the literature, the importance of social media as a research tool,
approach and relationship tool in this competitive environment. As a method,
the theoretical test was added, which allowed a better understanding of the
object and phenomena investigated. In addition, the study is an exploratory
descriptive, deepening knowledge about the issues and establishing relationships
between the importance of social media and institutional memory for the growth
of the industrial. It was possible, through the analysis of the literature, to verify
that social media constitute a communicative, formative and informative
environment. In addition, it is considered important that the institutions strive
for them to be places of sharing of data, information and knowledge, because
given the global connection, it is important that we recognize it as an element of
human development and consequently of the institutional environment. In
reflecting on institutional memory, the complexity of the concept and its
hybridity becomes clear. To be effective, it must be part of the institutional
routine and must be updated, stimulated and considered one of the strategies of
the institution, since it is constituted by the exchange of personal and
institutional memories, which serve as a support for the transfer of information
274
and decision making . In this way, when sharing information, everyone gains,
because the contact between the peers makes it possible to build the
foundations, thus developing actions that are based on the exchange of
information. Social media in the institutional environment allow individuals or
groups to articulate around an interest, transforming and incorporating diverse
groups of theoretical and ideological fields, thus allowing a great potential of
interaction strategically strategic for the organization. The partial considerations
reaffirm the importance of social media and its interface with institutional
memory for the growth of industry.
DESENVOLVIMENTO DE MODELO SEMÂNTICO DE
REPRESENTAÇÃO DE INFORMAÇÕES CRIMINAIS PARA
SUPORTAR A AVALIAÇÃO DE RISCOS
DEVELOPMENT OF A SEMANTIC REPRESENTATION
MODEL OF CRIMINAL INFORMATION TO SUPPORT THE
ASSESSMENT OF RISK SITUATIONS
Pôster / Poster
SARAN, Jordan Ferreira.
Univem
Consciência Situacional é um processo cognitivo importante para
tomadores de decisão em diversas áreas críticas e diz respeito à percepção da
presença e disposição de entidades de interesse em um ambiente, à compressão
do significado e importância de suas ações individuais e coletivas no espaço-
tempo e à projeção de seus status em um futuro próximo. No domínio de
gerenciamento de riscos e análise de dados criminais, falhas de consciência
situacional podem induzir operadores humanos a erros no processo decisório e
acarretar riscos à vida de pessoas, patrimônio ou ao meio ambiente. Embora
consciência situacional não possa garantir decisões de melhor qualidade, sua
melhoria pode auxiliar operadores humanos, sujeitos ao estresse, a manter um
conhecimento superior sobre eventos e situações em curso. Neste contexto,
processos de avaliação de situações de risco, que comumente envolvem métodos
de mineração de dados, fusão de informação e outros, apresentam oportunidades
para gerar melhores informações e contribuir para a melhoria da consciência
situacional de analistas criminais e de risco. Entretanto, a caracterização de
cenários complexos está sujeita a problemas de representação e expressividade
das informações, o que pode influenciar a interpretação das mesmas quanto à
sua qualidade e significância, podendo gerar alto nível de incertezas. O estado
275
da arte em representação de informações sobre situações de risco e áreas
relacionadas, apresenta abordagens com limitado emprego da qualidade da
informação e seus grandes desafios em produzir informações mais precisas,
completas e coerentes. Além disso, as soluções são restritas a mecanismos
sintáticos para determinação de relações entre informações, tanto por razões da
própria qualidade de dados, quanto pela limitação simples de combinações por
critérios sintáticos, dessa forma, restringindo negativamente a assertividade dos
resultados. Assim, o objetivo deste trabalho é a especificação, implementação e
aplicação de um modelo de representação semântica de informações de
situações de risco, ou seja, desenvolver ontologias de domínio, instanciadas com
dados criminais e que incluam indicies de qualidade de informações de classes e
instâncias, para a parametrização de processos de inferência, como, mineração e
fusão de informação, e assim, visando a ampliação da capacidade de detecção de
sinergia entre informações e a busca de novos objetos, atributos e relações entre
eles, com base em significados. Em estudo de caso, serão processadas
informações reais de crimes, representadas pelo novo modelo semântico e
consumidas por processos computacionais de inferência, visando caracterizar
especialmente situações de roubo e furto. Para avaliar a abordagem, as
informações representadas serão analisadas por especialistas e pontuadas quanto
ao nível de consciência situacional proporcionado pelo modelo de representação
semântica de informações de situações de risco.
Situational Awareness is an important cognitive process for decision
makers in several critical areas and concerns the perception of the presence and
disposition of entities of interest in an environment, the understanding of the
meaning and importance of their individual and collective actions in space-time
and the projection of their status in the near future. In the area of risk
management and criminal data analysis, situational awareness flaws can induce
human operators to make mistakes in the decision-making process and risk the
lives of people, assets or the environment. Although situational awareness
cannot guarantee better quality decisions, its improvement can help human
operators, subject to stress, to maintain a superior knowledge of current events
and situations. In this context, risk assessment processes, which commonly
involve methods of data mining, information fusion and others, present
opportunities to generate better information and contribute to improving the
situational awareness of criminal and risk analysts. However, the
characterization of complex scenarios is subject to problems of representation
and expressivity of the information, which can influence the interpretation of the
same as to its quality and significance and can generate a high level of
uncertainties. The state-of-the-art in representing information about risk
situations and related areas presents approaches with limited use of information
quality and its major challenges in producing more accurate, complete and
coherent information. In addition, the solutions are restricted to syntactic
276
mechanisms to determine relations between information, both for data quality
reasons and for simple limitation of combinations by syntactic criteria, thus
negatively restricting the assertiveness of the results. Thus, the objective of this
work is the specification, implementation and application of a semantic
representation model of information of risk situations, that is, to develop domain
ontologies, instantiated with criminal data and that include indices of class and
instance information quality, for the parameterization of inference processes,
such as information mining and fusion, and thus, aiming to increase the capacity
of detection of synergy between information and the search for new objects,
attributes and relations between them, based on meanings. In a case study, real
information on crimes, represented by the new semantic model and consumed
by computational inference processes, will be processed, aiming to characterize
robbery and theft situations. To evaluate the approach, the information
represented will be analyzed by experts and scored on the level of situational
awareness provided.
INFORMAÇÃO PARA AUTONOMIA EM NEGÓCIOS,
INOVAÇÃO E TECNOLOGIA
INFORMATION FOR AUTONOMY IN BUSINESS,
INNOVATION AND TECHNOLOGY
Comunicação Oral / Oral Communication
SENA, Priscila Machado Borges.
UFSC
AMORIM, Igor Soares.
UFSC
BLATTMANN, Ursula.
UFSC
As tecnologias de informação e comunicação impulsionaram o avanço
da ciência e tecnologia, e consequentemente fizeram emergir para os
profissionais da informação necessidades de novas competências e
aprimoramento das já existentes, com o objetivo atender as demandas
informacionais oriundas dos ambientes de negócios, inovação e tecnologia.
Esses contextos denominados de forma diferenciada como ecossistemas de
277
negócios, inovação, empreendedorismo e startups fomentam alto volume e
diversidade de dados, informações e conhecimentos, necessários para as
tomadas de decisão constantes nesses ambientes. Dessa maneira, acredita-se que
a identificação das demandas informacionais emergentes de ambientes
denominados como ecossistemas pode contribuir para a autonomia dos atores
envolvidos, na realização de suas atividades. Como ambientes vivos, pode-se
inferir que os ambientes denominados como ecossistemas tratam-se de sistemas
abertos, que mantêm um contínuo fluxo de entrada e saída de dados,
informações e conhecimentos, o qual pode apresentar construção e
decomposição de componentes. O que requer naturalmente ação autônoma de
seus participantes. Assim, entende-se que a identificação das necessidades de
informação nos ambientes denominados como ecossistemas faz emergir novas
demandas informacionais a serem atendidas pelos profissionais da informação,
tanto no nível prático, quanto teórico para sustentação. Posto que, as
necessidades e demandas informacionais tem sido tema central aos profissionais
de informação, pois constituem o motivo maior das ações de informação. Nessa
perspectiva, considera-se nesta pesquisa os estudos sobre necessidades e
demandas informacionais que conferem centralidade aos usuários, as pessoas e
organizações, que interagem em um ambiente por meio da informação. Por meio
de pesquisa qualitativa e descritiva, foram identificadas demandas
informacionais, tais como: mapeamento de fontes de informação pertinentes;
identificação de ferramentas e mecanismos para integrar os vários tipos de
informação; busca e / ou projeto de sistemas interativos de informação;
identificação de momentos-chave nos processos existentes; representação e
descrição de informação e conhecimento; caracterização de comportamento
pessoal e informativo. Conclui-se que as demandas informacionais oriundas das
informações pertinentes aos ecossistemas de negócios, inovação,
empreendedorismo e startups requerem do profissional da informação reflexão
crítica sobre a disponibilização e preparo para a utilização das ferramentas e
mecanismos de promoção do acesso e uso das informações, a fim de promover a
ação autônoma dos atores integrantes desses ambientes.
Information and communication technologies have boosted the
advancement of science and technology, and consequently have brought to the
attention of information professionals new skills and improvement of existing
ones, in order to meet the information demands of business, innovation and
technology environments. These differently named contexts such as business
ecosystems, innovation, entrepreneurship and startups foster the high volume
and diversity of data, information and knowledge required for decision-making
in these environments. In this way, it is believed that the identification of the
emerging informational demands of ecosystem environments can contribute to
the autonomy of the actors involved in the performance of their activities. As
living environments, it can be inferred that ecosystem environments are open
278
systems, which maintain a continuous flow of input and output data, information
and knowledge, which can present construction and decomposition of
components. This naturally requires the autonomous action of its participants.
Thus, it is understood that the identification of information needs in
environments called ecosystems brings new information demands to be
addressed by information professionals, both at the practical level and
theoretical for sustainability. Since, information needs and demands have been a
central theme for information professionals, since they are the main reason for
information actions. From this perspective, this study considers the studies on
information needs and demands that give a centrality to the users, the people
and organizations, that interact in an environment through information. Through
qualitative and descriptive research, informational demands were identified,
such as: mapping relevant sources of information; identification of tools and
mechanisms to integrate the various types of information; search and / or design
of interactive information systems; identification of key moments in existing
processes; representation and description of information and knowledge;
characterization of personal and informational behavior. It is concluded that the
informational demands derived from information pertinent to business,
innovation, entrepreneurship and startups ecosystems require the information
professional to make critical reflection about the availability and preparation for
the use of tools and mechanisms to promote access and use of information,
order to promote the autonomous action of the actors that are part of these
environments.
BIG DATA: UMA ANÁLISE MULTIDIMENSIONAL DE DESIGN
DA INFORMAÇÃO EM UM MODELO REFERENCIAL
BIG DATA: A MULTIDIMENSIONAL ANALYSIS OF
INFORMATION DESIGN IN A REFERENTIAL MODEL
Comunicação Oral / Oral Communication
SILVA, Anahi Rocha.
Unesp / Marília
LANDIM, Lais Alpi.
Unesp / Marília
279
JORENTE, Maria José Vicentini.
Unesp / Marília
A maioria das atividades realizadas por instituições, empresas e
indivíduos por meio das tecnologias da informação e comunicação
(computadores, smartphones, tablets, equipamentos com sensores inteligentes)
gera uma quantidade massiva de dados. Essa produção massiva de dados
inaugurou um novo paradigma, que foi denominado por Cox e Ellsworth, em
1997, como Big Data. Isso fez com que emergissem novos desafios relacionados
a esses grandes volumes de dados, como a integração de um grande número de
fontes distintas, a manipulação de dados estruturados e não estruturados, e
problemas de desempenho. Para explorar todos os benefícios que os dados
digitais potencialmente oferecem, são necessárias estruturas específicas para
sistemas de informação, especialmente projetadas para recuperar, processar,
analisar e armazenar esse volume e essa variedade de dados. O design dessas
estruturas deve desenvolver funcionalidades relacionadas às fontes de dados,
extração de dados, carregamento e pré-processamento de dados, processamento,
análise, e transformação de dados, interface e visualização, armazenamento de
dados e especificação de modelo referencial. Nesse contexto, os estudos em
Design da Informação (DI) fornecem elementos que contribuem para o
aprimoramento desses processos relacionados ao Big Data. Os estudos em DI
englobam questões que envolvem o preparo da informação e de sistemas de
informação, com o intuito de que os processos de trânsito informacional se
realizem de forma eficiente e eficaz. A partir de uma estrutura de referência para
sistemas Big Data, distribui-se todo o fluxo de trabalho em quatro camadas
(fontes de dados, gerenciamento de dados, modelagem e análise de resultados e
visualização), e realiza-se uma análise multidimensional, a fim de demonstrar
como os estudos em DI podem contribuir para responder aos desafios
correspondentes a cada camada e, assim, obter subsídios para uma melhor
compreensão desse assunto. A partir da revisão de literatura, foi possível
constatar, nos estudos em Design da Informação, um foco crescente no Big
Data. Para os desafios presentes em cada camada lógica das soluções de Big
Data, há elementos de DI que contribuem para sua resolução, de forma a
aprimorar a integração das fontes, as mensagens de dados, a análise e a
aplicação dos resultados relativos a grandes conjuntos de dados. Conclui-se,
também, que a complexidade do fenômeno Big Data em sistemas
informacionais promove a necessidade de pesquisas com a participação de
distintas disciplinas, em diferentes níveis e perspectivas, buscando uma maior
integração e trocas de conhecimentos provenientes da Ciência da Informação,
do Design da Informação, e da Ciência da Computação, de forma a enfrentar de
maneira mais eficiente os desafios encontrados.
280
Most of the activities carried out by institutions, companies and
individuals through information and communication technologies (personal
computers, smartphones, tablets, smart sensor equipment) generates a massive
amount of data. This massive production of data opened a new paradigm, which
was named for Cox and Ellsworth, in 1997, as Big Data. This made new
challenges related to these large volumes of data emerge, such as the integration
of a large number of different sources, the manipulation of structured and
unstructured data, and performance issues. In order to explore all the benefits
that digital data potentially offer, specific structures are required for information
systems, especially designed to retrieve, process, analyze and store this volume
and variety of data. The design of these structures should develop features
related to data sources, data extraction, loading and data preprocessing,
processing, analysis, and data processing, visualization and interface, data
storage and referential model specification. In this context, studies in
Information Design (ID) provide elements that contribute to the improvement of
these processes related to Big Data. Studies in ID include issues involving the
preparation of information and information systems, with the purpose of making
information traffic processes occur efficiently and effectively. From a frame of
reference for Big Data systems, all the workflow is split into four layers (data
sources, data management, analysis and modeling, and visualization), and a
multidimensional analysis is carried out, in order to demonstrate how the studies
on ID can contribute to meet the challenges corresponding to each layer and,
thus, get subsidies for a better understanding of this subject. From the literature
review, an increasing focus on Big Data was found in studies on Information
Design. In order to resolve the challenges present in each logical layer of Big
Data solutions, there are elements of ID that contribute to its resolution, in order
to enhance the integration of sources, data messages, the analysis and the
application of results relating to large sets of data. Also, the complexity of the
Big Data phenomenon in information systems promotes the need for research
with the participation of different disciplines, at different levels and
perspectives, seeking greater integration and exchange of knowledge from
information science, information Design, and computer science, in order to
tackle the challenges found more effectively.
CURADORIA DE DADOS EM REPOSITÓRIOS CIENTÍFICOS:
CONTRIBUIÇÕES DO DESIGN DA INFORMAÇÃO
DATA CURATION IN SCIENTIFIC REPOSITORIES:
CONTRIBUTIONS FROM INFORMATION DESIGN
Comunicação Oral / Oral Communication
281
SILVA, Anahi Rocha.
Unesp / Marília
LANDIM, Lais Alpi.
Unesp / Marília
APOCALYPSE, Simão Marcos.
Unesp / Marília
JORENTE, Maria José Vicentini.
Unesp / Marília
Dados produzidos ou utilizados no contexto da investigação científica
cresceram em dimensão e complexidade, mais acentuadamente no século XXI,
em razão de novos métodos e instrumentos tecnológicos. Esse fenômeno trouxe
para pesquisadores, agências de fomento, instituições de pesquisa, universidades
e órgãos governamentais a conscientização da necessidade de arquivamento e
preservação desses dados. Para que os dados possam ser partilhados e
reutilizados, é necessário que existam, nas instituições, infraestrutura adequada
e indivíduos responsáveis pela sua curadoria. Em regra, dados de pesquisa são
da responsabilidade do pesquisador e da respectiva instituição, que os deposita
em seus repositórios. Repositório científico é um ambiente informacional para
armazenamento, gestão, preservação e acesso a dados científicos para sua
reutilização. Além dos registros e documentos necessários para subsidiar e
validar os resultados das investigações, os repositórios disponibilizam os frutos
das pesquisas (artigos, papers, teses e dissertações). Considerando a diversidade
de objetos explorados pelas diferentes áreas (ciências humanas, exatas e
biológicas), a complexidade dos dados digitais de pesquisa apresentam desafios
como: heterogeneidade de formas, formatos, padrões, dimensões e volumes. A
adoção de um plano de curadoria de dados é considerada por especialistas uma
solução para enfrentar essa variedade e explosão na produção de dados
científicos (big data), pois envolve todo seu ciclo de vida, e compreende o
conjunto das ações personalizadas/específicas que garantem sua autenticidade,
integridade e acessibilidade. Aliado à curadoria, o Design da Informação (DI)
pode fornecer elementos de melhoria significativa ao ambiente digital de
repositórios, pois envolve a análise, o planejamento, a apresentação da
mensagem em seus meios, analógicos ou digitais. Essa disciplina fornece
elementos para melhorar a comunicação, com foco na legibilidade, compreensão
e acesso a documentos. A informação é preparada para que seja acessada com
282
eficiência e eficácia, a partir de metodologias de desenvolvimento de objetos e
sistemas informacionais. O objetivo deste trabalho é explorar as contribuições
do DI em repositórios digitais de dados científicos, considerando o contexto do
Big Data. Para tanto, realizamos pesquisa bibliográfica sobre o tema e
exploratória-descritiva aplicada ao Portal Brasileiro de Publicações Científicas
em Acesso Aberto (OASIS), criado pelo Instituto Brasileiro de Informação em
Ciência e Tecnologia (IBICT), sob a perspectiva da Informal Action Analysis,
de Lewis e Rieman, e a partir dos princípios do DI de Pettersson. Justifica-se
referida escolha dada a importância do OASIS no cenário nacional, como único
mecanismo de busca multidisciplinar que reúne a produção científica brasileira
de universidades públicas, particulares e institutos de pesquisa, em todas as
áreas do conhecimento, disponibilizando para consulta e download mais de 1,8
milhão de documentos. Como resultados, demonstram-se aspectos de DI na
Interface Gráfica do portal analisado, referentes à conformidade ou não com os
princípios de Estrutura, Clareza e Acesso à Informação, e recomendam-se
melhorias para a curadoria de dados, a partir da literatura e análise. Conclui-se
que a conformidade com os princípios do DI no planejamento e apresentação da
Interface Gráfica de repositório científico é imprescindível para a consolidação
do acesso e interação com a informação disponível, bem como para gerar
conhecimento no contexto do Big Data.
Data produced or used in the context of scientific research grew in size
and complexity, especially in the 21st century, due to new technological
methods and instruments. This phenomenon has brought the need for archiving
and preservation of this data to the attention of researchers, development
agencies, research institutions, universities and government agencies. In order
for the data to be shared and reused, there must be adequate infrastructure and
individuals responsible for its curation in the institutions. Generally, researchers
and their respective institutions are responsible for the research data, which is
deposited into their repositories. A scientific repository is an informational
environment for storage, management, preservation and access to scientific data
for its reuse. In addition to the records and documents needed to subsidize and
validate research results, repositories provide the fruits of research (articles,
papers, theses and dissertations). Considering the diversity of objects explored
by different areas (human, exact and biological sciences), the complexity of
digital research data presents challenges such as: heterogeneity of forms,
formats, patterns, dimensions and volumes. The adoption of a data curation plan
is considered by experts as a solution to address this variety and explosion in the
production of scientific data (big data), as it involves the whole of its life cycle,
and comprises the set of customized/specific actions that guarantee its
authenticity, integrity and accessibility. In addition to curation, Information
Design (DI) can provide elements of significant improvement to digital
repositories environments, as it involves the analysis, planning and presentation
283
of the message in its media, analog or digital. This discipline provides elements
to improve communication, focusing on readability, comprehension, and access
to documents. The information is prepared so that it is accessed efficiently and
effectively, through the adoption of methodologies to develop informational
objects and systems. The objective of this paper is to explore the contributions
of DI in digital repositories of scientific data, considering the context of Big
Data. To do so, we carried out a bibliographic research on the subject and an
exploratory-descriptive analysis on the Portal Brasileiro de Publicações
Científicas em Acesso Aberto (OASIS), created by the Instituto Brasileiro de
Informação em Ciência e Tecnologia (IBICT), from the perspective of Lewis
and Rieman’s Informal Action Analysis, and Pettersson’s DI principles. This
choice is justified given the importance of OASIS in the national scenario, as
the only multidisciplinary search mechanism that brings together the Brazilian
scientific production of public and private universities, individuals and research
institutes, in all areas of knowledge, making available more than 1.8 million
documents for consultation and download. As results, aspects of ID in the
Graphical Interface of the analyzed portal are demonstrated, regarding
compliance with the principles of Structure, Clarity and Information Access,
and improvements are recommended for the curation of data, from literature and
analysis. We concluded that compliance with the principles of DI in the
planning and presentation of the Scientific Repository Graphical Interface is
essential for the consolidation of access and interaction with the available
information, as well as to generate knowledge in the context of Big Data.
AS RELAÇÕES CONCEITUAIS EM ONTOLOGIAS: ANÁLISE
DAS RELAÇÕES HIERÁRQUICA, ASSOCIATIVA E DE
EQUIVALÊNCIA
THE CONCEPTUAL RELATIONSHIPS IN ONTOLOGIES:
ANALYSIS OF HIERARCHICAL, ASSOCIATIVE AND
EQUIVALENCE RELATIONSHIPS
Pôster / Poster
SILVA, André Felipe Pereira da.
Unesp / Marília
A utilização de um Sistema de Organização do Conhecimento que
contemple um vocabulário controlado é fundamental para os processos de
representação e recuperação da informação. Nestes sistemas delimitam-se as
classes nas quais os elementos se relacionam conceitualmente, seja em forma de
284
hierarquia, associação ou equivalência. Dentre os Sistemas de organização do
conhecimento que se utilizam de relações conceituais, as ontologias são
mecanismos que recentemente se mostram eficientes na representação do
conhecimento em ambiente formal. Neste cenário, o problema de pesquisa surge
com o intuito de observar se as relações conceituais presentes na ontologia
koala.owl, estão estruturadas em acordo às definições das relações conceituais
apresentadas na norma ISO 25964. Esta ontologia foi escolhida pelo baixo nível
de detalhamento enfocando um melhor aproveitamento da análise. Desse modo,
propõem-se como objetivo geral para esta pesquisa analisar como as relações
conceituais estão estruturadas na ontologia koala.owl. De modo específico
objetiva-se: a) investigar como as relações conceituais estão representadas em
uma ontologia já existente e; b) identificar falhas nas relações entre os conceitos
que possam existir na ontologia. Para isso foram adotados, em síntese, os
seguintes procedimentos metodológicos: a) identificação de uma ontologia com
baixo nível de detalhamento; b) instalação e utilização do software Protégé
5.2.0 para a visualização da ontologia; c) compreensão da estrutura da ontologia
escolhida. Os resultados mostram que existem falhas ou incoerências nas
relações entre as classes e nas próprias definições de classes. Outra constatação
importante foi a de que por mais que as ontologias tentem definir classes para
representar os conceitos, este é ainda um universo bastante inexplorado e isso
acaba por dificultar a remoção de ambiguidades para que um conceito não seja
igual a um outro. Como considerações finais constatou-se que mesmo em
Sistemas de Organização do Conhecimento mais tradicionais, existem
ambiguidades e limitações e com as ontologias isso não seria diferente. No
entanto por serem de ambiente formal, isto é, ambiente legível por máquinas as
ontologias carecem de um instrumento que auxilie na diferenciação de termos
reduzindo ao máximo ambiguidades, pois a máquina, não interpreta, apenas
responde a comandos determinados por humanos.
The use of a Knowledge Organization System that includes a controlled
vocabulary is fundamental for the processes of representation and retrieval of
information. In these systems the classes in which the elements that are
conceptually related, whether in the form of hierarchy, association or
equivalence, are delimited. Among the Knowledge Organization Systems that
use conceptual relations, ontologies are mechanisms that have recently been
efficient in the representation of knowledge in a formal environment. In this
scenario, the research problem arises in order to observe if the conceptual
relations present in the koala.owl ontology are structured according to the
definitions of the conceptual relations presented in ISO 25964. This ontology
was chosen by the low level of detail focusing on a better use of the analysis
Thus, it is proposed as a general objective for this research to analyze how the
conceptual relations are structured in the koala.owl ontology. Specifically, it
aims to: a) Investigate how conceptual relations are represented in an already
285
existing ontology; b) identify flaws in the relationships between concepts that
may exist in the ontology. In order to do so, the following methodological
procedures were adopted: a) identification of an ontology with low level of
detail b) installation and use of the software protégé 5.2.0 for the visualization
of the ontology; c) understanding the structure of the chosen ontology. The
results show that there are flaws or inconsistencies in the relations between
classes and in the class definitions themselves. Another important finding was
that although the ontologies try to define classes to represent the concepts, this
is still a very unexplored universe and this ends up making it difficult to remove
ambiguities so that one concept is not the same as another one. As final
considerations, it was verified that even in more traditional Knowledge
Organization Systems, there are ambiguities and limitations and with the
ontologies this would not be different. However, because they are of a formal
environment, in other words, machine-readable environment, the ontologies lack
an instrument that helps differentiate terms by reducing ambiguities to the
maximum, since the machine does not interpret, only responds to commands
determined by humans.
ORGANIZAÇÃO DO CONHECIMENTO E CULTURA
PARTICIPATIVA: A FANFICTION, O AUTOR/USUÁRIO E A
CLASSIFICAÇÃO
ORGANIZATION OF KNOWLEDGE AND PARTICIPATIVE
CULTURE: THE FANFICTION, THE AUTHOR / USER AND
THE CLASSIFICATION
Pôster / Poster
SILVA, Bruna Daniele de Oliveira.
USP
SABBAG, Deise Maria Antonio.
USP, Unesp / Marília
O trabalho aborda o processo de classificação no contexto das
fanfictions e a relação do autor/usuário como construção social. A partir da obra
de Henry Jenkins (2009) a pesquisa apresenta os conceitos de Convergência de
Mídias, Cultura Participativa e Inteligência Coletiva que formam o tripé do
fenômeno Trabalho Colaborativo na Cultura da Convergência. Como produto da
evolução tecnológica a convergência midiática tem como característica a
286
transição e a integração de diversos meios de comunicação permitindo que a
relação do público mudasse de interativa para participativa. A cultura
participativa é o aspecto definidor da ação do consumidor que se transforma
num produtor de conteúdos, especificamente o contexto desta pesquisa aborda
os fandoms. A inteligência coletiva é formada pela reunião de indivíduos com
diferentes graus de entendimento sobre determinado assunto gerando
conhecimento comum e compartilhado. A Convergência possibilitou o
desenvolvimento e fortalecimento da Cultura Participativa e da Inteligência
Coletiva que unidas revolucionaram o modo de produzir e consumir
conhecimentos, exemplo dessa junção são os fandoms. Os fandoms são
comunidades de fãs que compartilham produtos, experiências e trabalhos de seu
objeto de veneração. A produção de conteúdo feita pelos fãs é possível devido
ao Trabalho Colaborativo que produz os mais diversos tipos de materiais, são
eles: fanarts (desenhos, pinturas), fanzines (revistas), fanfilms (filmes) e as
fanfictions (histórias, narrativas). Fanfictions podem ser definidas como a
produção de histórias ficcionais, baseadas em ícones da cultura popular, escritas
por fãs que transformam e desenvolvem o conteúdo original. Questões
relacionadas à autoria estão diretamente ligadas às fanfictions, uma vez que sua
escrita se baseia na apropriação de um objeto cultural cuja autoria já foi
atribuída. Segundo Foucault (1969), existe uma função-autor que relaciona o
autor a sua obra e caracteriza os discursos, ou seja, ela determina o que é
aceitável, o que é válido, o que tem credibilidade. Assim, o texto não pode ser
individualizado, pois é uma construção social, ou seja, não nasce do absoluto
nada. Com o objetivo de estudar o processo classificatório das fanfictions no site
Nyah! e caracterizar o escritor/usuário desses produtos o trabalho tem como
suporte metodológico a pesquisa bibliográfica e descritiva aliadas a aplicação de
questionário online para coleta de dados. O questionário foi aplicado em dois
grupos fechados do Facebook, cada um deles contava com cerca de 25 mil
membros. Ficou constatado que os fandoms são compostos em sua maioria por
jovens estudantes do sexo feminino. O site de fanfictions Niah! estabelece dois
filtros para classificar suas histórias: categoria e gênero. O processo de
classificação realizado pelos fãs leva em consideração o enredo da história em
detrimento da categoria e do gênero preestabelecidos. Os dados demonstram que
os usuários aprovam os meios disponíveis para classificação, no entanto, uma
parcela acredita que as categorias podem ser aprimoradas por meio de adição de
novos assuntos. Conclui-se que essas comunidades são organizadas sendo
capazes de realizar a curadoria do conhecimento gerado em seu interior. Além
de representarem um campo rico de estudo em diversas áreas do conhecimento,
inclusive para a Biblioteconomia.
287
The paper deals with the classification process in the context of
fanfictions and the author / user relationship as social construction. From the
work of Henry Jenkins (2009) the research presents the concepts of
Convergence of Media, Participatory Culture and Collective Intelligence that
form the tripod of the Collaborative Work phenomenon in Convergence Culture.
As a product of technological evolution, media convergence is characterized by
the transition and integration of various media, allowing the public's relationship
to change from interactive to participatory. Participatory culture is the defining
aspect of consumer action that becomes a producer of content, specifically the
context of this research approaches fandoms. Collective intelligence is formed
by the gathering of individuals with different degrees of understanding about a
given subject generating common and shared knowledge. Convergence made
possible the development and strengthening of Participatory Culture and
Collective Intelligence that united revolutionized the way of producing and
consuming knowledge, an example of this junction are fandoms. Fandoms are
communities of fans who share products, experiences and works of their object
of veneration. The production of content made by the fans is possible due to the
Collaborative Work that produces the most diverse types of materials, they are:
fanarts (drawings, paintings), fanzines, fanfilms and fanfictions. Fanfictions can
be defined as the production of fictional stories, based on popular culture icons,
written by fans who transform and develop the original content. Issues related to
authorship are directly linked to fanfictions, since their writing is based on the
appropriation of a cultural object whose authorship has already been attributed.
According to Foucault (1969), there is a function-author that relates the author
to his work and characterizes the discourses, that is, it determines what is
acceptable, what is valid, what has credibility. Thus, the text can not be
individualized, because it is a social construction, that is, nothing is born of
absolute nothingness. In order to study the classificatory process of fanfictions
in Nyah! and to characterize the writer / user of these products the work has as
methodological support the bibliographic and descriptive research allied to the
application of online questionnaire for data collection. The questionnaire was
applied in two closed groups of Facebook, each of them had about 25 thousand
members. It was observed that the fandoms are composed mostly by young
female students. The site of fanfictions Niah! establishes two filters to classify
their stories: category and gender. The rating process conducted by the fans
takes into account the plot of the story to the detriment of the pre-established
category and genre. The data demonstrate that users approve the means
available for classification, however, a portion believes that categories can be
improved by adding new subjects. It is concluded that these communities are
organized being able to realize the curation of the knowledge generated in their
interior. In addition to representing a rich field of study in several areas of
knowledge, including for Librarianship.
288
IMPLICAÇÕES ÉTICAS NA UTILIZAÇÃO DE DADOS PARA
PERSUASÃO PSICOLÓGICA EM MASSA
ETHICAL IMPLICATIONS IN DATA USAGE FOR MASSIVE
PSYCHOLOGICAL PERSUASION
Pôster / Poster
SILVA, Camila da Cruz.
Unesp / Marília
VELOSO, Jefferson Torres.
Unesp / Marília
ANDRADE, Leonardo Francisco Costa de.
Unesp / Marília
Como se tornou público, a empresa britânica de assessoria Cambrigde
Analytica teria feito uso não autorizado de dados pessoais de usuários de redes
sociais a fim de direcionar mensagens políticas e influenciar as intenções de
voto de eleitores por meio de testes psicográficos e rastreamento da atividade
dos usuários. Diante desse cenário, pretendemos com este trabalho discutir dois
problemas centrais sob o viés da epistemologia da psicologia e da ética
informacional. O primeiro problema diz respeito a uma análise do modelo
psicográfico de Kosinski et al. (2013) utilizado para criar perfis psicológicos
cujos resultados, supostamente, permitiriam um direcionamento mais preciso
das estratégias de marketing utilizando-se das pegadas digitais dos usuários para
criar mensagens personalizadas. Para isso, realizaremos uma análise detalhada
dos protocolos experimentais e resultados dos testes psicométricos que teriam
fundamentado o modelo proposto por Kosinski (2012, 2013). O segundo
problema que discutiremos diz respeito às questões éticas em relação à
privacidade e à ação autônoma dos usuários das redes sociais, isto é, dos
fornecedores dos dados, procurando tratar de duas questões centrais: quais serão
as consequências éticas que o uso indevido dos dados, sem termos explícitos de
consentimento, traz para uma sociedade que está tão imersa na tecnologia
informacional e criou em relação a ela fortes vínculos de dependência? Como é
possível preservar a privacidade, a intimidade e a autonomia em uma sociedade
exposta à persuasão psicológica em massa através do uso abusivo de dados?
Para tratar das perguntas levantadas faremos uso de três diferentes perspectivas
289
de análise ética, quais sejam, a ética do dever, o consequencialismo e o
compatibilismo sistêmico, com o objetivo de clarificar as implicações éticas do
uso conjunto de modelos psicométricos e rastreamento de dados na sociedade
contemporânea.
As it became public, British consulting firm Cambridge Analytica
would have made unauthorized use of personal data from social networking
users to direct political messages and influence voters’ intentions through
psychographic testing and by tracking user activity. Given this scenario, we
intend with this paper to discuss two central problems under the bias of the
epistemology of psychology and informational ethics. The first problem
concerns an analysis of the psychographic model of Kosinski et al. (2013) used
to create psychological profiles whose results are supposed to allow a more
precise targeting of marketing strategies using the digital footprints of users to
create personalized messages. For this, we will carry out a detailed analysis of
the experimental protocols and results of the psychometric tests that would have
based the model proposed by Kosinski (2012, 2013). The second problem that
we will discuss concerns the ethical issues regarding privacy and the
autonomous action of social network users, that is, data providers, trying to
address two central issues: what are the ethical consequences that the undue use
of the data, without explicit terms of consent, brings to a society that is so
immersed in information technology and has created strong dependency links?
How can privacy, intimacy, and autonomy be preserved in a society exposed to
massive psychological persuasion through abusive use of data? In order to
address the questions raised, we will use three different perspectives of ethical
analysis, namely, duty ethics, consequentialism, and systemic compatibilism, in
order to clarify the ethical implications of the joint use of psychometric models
and data tracking in contemporary society.
INFORMAÇÃO COMO AÇÃO SIGNIFICATIVA EM
PROCESSOS SEMIÓTICOS EMERGENTES BASEADOS EM
MULTIAGENTE
INFORMATION AS MEANINGFUL ACTION IN EMERGENT
SEMIOTIC PROCESSES BASED ON MULTIAGENT
Pôster / Poster
SILVA, Davidson Bruno da.
UFVJM
290
CARVALHO, Leonardo Lana de.
UFVJM
O tema deste trabalho é o estudo da informação como ação
significativa em processos semióticos emergentes em sistemas complexos
baseados em multiagente. O nosso objetivo foi analisar, conceber e implementar
um léxico emergente baseado em símbolos, que ao informar uma situação de
perigo, forneçam vantagens adaptativas a agentes inteligentes de um sistema
multiagente auto-organizado. O método utilizado foi o da modelagem
computacional de processos cognitivos baseada em sistemas complexos à base
de multiagente (Vida Artificial). A partir desta metodologia foi concebido e
implementado processos semióticos cujo aspecto emergente é caracterizado pela
convergência léxica no coletivo auto-organizado de agentes. A análise do
conceito de informação como ação significativa em um sistema complexo auto-
organizado é feita seguindo o método da análise conceitual, cuja tradição
remonta à Filosofia Analítica. Procedemos pela construção de um simulador
para representar um cenário real, originalmente proposto por Loula et. al. em
2003, em que agentes presas (“macacos vervets”) interagem entre si e com o
ambiente através de processos básicos como memória associativa, percepção e
foco de atenção, possuindo também drivers de fome e medo. Cada presa
compartilha do mesmo conjunto de símbolos, que inicialmente possuem
probabilidades de uso distintas para indicar a aproximação de diferentes
predadores. Cada presa notifica ao ambiente um evento capturado por ela
através da emissão do sinal que possui maior probabilidade de uso. Os demais
agentes podem perceber este sinal através de seus sensores visual e auditivo.
Para cada sinal recebido com sucesso, há um reforço empregado à probabilidade
de uso daquele símbolo para fazer referência ao predador que apareceu na área
visual. Hipotetizamos que, usando coletivamente os mesmos símbolos para
fazer referência aos mesmos predadores, os agentes obteriam vantagens de fuga.
Os resultados iniciais que tivemos confirmam esta hipótese e revelam que a
convergência do léxico que surge das interações entre os agentes aumenta em
muito as chances de sobrevivência dos agentes presa. A análise do conceito de
informação proposta aqui trata de uma compatibilização do conceito de
processamento da informação do cognitivismo com o conceito de ação
significativa como informação na teoria enativa. Entendemos que esta
compatibilização se faz sob uma perspectiva de sistemas complexos. Para a
teoria enativa a informação existe na comunicação, isto é, nos processos
envolvidos na autopoiése de um sistema cognitivo. Assim, defendemos que a
informação como ação significativa em processos emergentes semióticos
baseados em Multiagente ocorre a partir da convergência de um léxico em
processos auto-organizados, ou seja, na comunicação. O processamento de
dados por uma estrutura algorítmica é necessário (tese cognitivista) em
291
Multiagente, mas não é suficiente para caracterizar a informação, pois é
necessário que esteja envolvida em um processo complexo auto-organizado para
que seja uma ação significativa (tese enativista). Concluímos que a análise,
concepção e implementação de sistemas complexos auto-organizados baseados
em Multiagente fornecem um modo promissor de investigação dos conceitos de
informação, linguagem, semiótica e semântica. Enfatizamos a importância da
ação significativa em sua função adaptativa, ao fortalecer o coletivo auto-
organizado.
The subject of this work is the study of information as a meaningful
action in emergent semiotic processes in complex systems based on multiagent.
Our objective was to analyze, design and implement an emergent symbol-based
lexicon that, when informing a dangerous situation, provides adaptive
advantages to agents of a self-organized Multiagent system. The method used
was the computational modeling of cognitive processes based on Multiagent
complex systems (Artificial Life). From this methodology was conceived and
implemented semiotic processes whose emerging aspect is characterized by
lexical convergence in the self-organized collective of agents. The analysis of
the concept of information as meaningful action in a complex self-organized
system is done following the method of conceptual analysis, whose tradition
goes back to Analytical Philosophy. We proceeded by the construction of a
simulator to represent a real scenario, originally proposed by Loula et. al. in
2003, where prey agents ("monkeys") interact with each other and with the
environment through basic processes such as associative memory, perception
and focus of attention, as well as drivers of hunger and fear. Preys share the
same set of symbols that initially have distinct use probabilities to indicate the
presence of different predators. Each prey notifies the environment of an event
captured by the emission of the signal that has the high probability of use.
Others agents can perceive this signal through their auditory sensor. For each
signal received successfully, there is an increase in the probability of using that
symbol to refer to the predator that appeared in the visual area, after the auditory
alarm. Collectively using the same symbols to refer to the same predators, we
hypothesize that agents would obtain adaptive advantages. Our initial results
have confirmed this hypothesis and reveal that the convergence of the lexicon
that arises from the interactions among the agents greatly increases the chances
of survival of prey agents. The analysis of the information concept proposed
here deals with a compatibilization of the cognitivist concept of information
processing with the concept of information as meaningful action on the enative
theory. We argue that this compatibilization is done from a complex systems
perspective. For the enative theory the information exists in the communication,
i.e., in the processes involved in the autopoiesis of a cognitive system. Thus we
defend information as a meaningful action in emergent semiotic processes based
on Multiagent, it occurs from the convergence of a lexicon evolved in self-
292
organized processes, that is, in communication. Data processing by an
algorithmic structure is necessary (cognitivist thesis) in Multiagent, but it is not
enough to characterize the concept of information because it is necessary this
evolvement in a complex self-organized process so that it is a meaningful action
(enactivist thesis). We conclude that the analysis, design and implementation of
complex self-organized systems based on Multiagent provide a promising way
to investigate the concepts of information, language, semiotics and semantics.
We emphasize the importance of meaningful action in its adaptive function, by
strengthening the collective.
OS SONHOS LÚCIDOS: INTERNALISMO E EXTERNALISMO
LUCID DREAMS: INTERNALISM AND EXTERNALISM
Pôster / Poster
SILVA, Edmur Santana da.
Unesp / Marília
Com o avanço da tecnologia tornou-se possível reconhecer e estudar
cada uma das fases do sono, desta forma, teorias mais precisas a respeito dos
sonhos puderam ser formuladas. Assim, a causa deste deixou de ser uma
entidade espiritual ou uma energia psíquica, passando a ser um processo
fisiológico natural que ocorre todas as noites em indivíduos saudáveis. No
sonho comum, há experiências conscientes, mas o sonhador não tem
consciência de estar sonhando e não tem controle do seu fluxo de consciência;
diferentemente do sonho lúcido, no qual o sonhador se torna consciente de estar
sonhando e adquire algum grau de controle sobre suas atitudes e sobre o
ambiente no qual está inserido. Este foi visto por muito tempo como uma
impossibilidade, mesmo quando conseguiram provar que era possível, a
comunidade científica demorou para aceitar as provas. A ideia de estar
autoconsciente enquanto se está dormindo parecia contraditória. Além disso,
apesar de ser um fenômeno natural, poucas pessoas o têm naturalmente,
dificultando sua aceitação. Aristóteles classificou os sonhos como pertencentes
à faculdade da imaginação, e esta, por sua vez como pertencente à faculdade
sensível-perceptiva e a causa do sonho era que, devido ao intenso estímulo
recebido durante o dia, a faculdade sensível-perceptiva, tal como um objeto
lançado no ar continua se movendo mesmo sem ter mais nada empurrando,
continuaria a operar com os sentidos já desligados; e o mesmo ocorrendo com a
faculdade da razão. Somente na segunda metade do século passado é que se
tornou possível analisar o cérebro em funcionamento possibilitando assim uma
293
ciência mais exata a respeito dos sonhos. Percebeu-se que a frequência cerebral,
assim como a tensão muscular se alterava de forma programada, e descobriu-se
que os sonhos ocorrem principalmente em um desses estados, que denominaram
REM (Rapid Eyes Movement). Surgiu assim uma nova teoria da causa dos
sonhos, activation-synthesis hypothesis a qual descartava a teoria Freudiana,
pois os sonhos são frutos de mudanças na atividade neuronal ocorrendo com
todos os mamíferos e não produtos da excitação das células nervosas. Tendo em
mãos a tecnologia e esta nova teoria foi possível explorar os sonhos não como
relatos, mas sim enquanto aconteciam. Desta maneira, alguns pioneiros
(Stephen Laberge; Keith Hearne) conseguiram provar que era possível estar
consciente nos sonhos enviando sinais pré-determinados por meio de
movimentos oculares durante o estado REM. Esta descoberta vem abalar nosso
senso-comum a respeito do que é dormir, sonhar, acordar; e até mesmo do que é
a realidade.
With the advances of technology it became possible to recognize and
study the phases of sleep, and because of this, improved theories about dreams
could be formulated. Thus the cause of it ceased to be a spiritual entity or a
psychic energy becoming a natural physiological process occurring every night
in healthy individuals. In a common dream there are conscious experiences, but
the dreamer is not aware of dreaming and has no control of his stream of
consciousness; differently from lucid dreaming, which the dreamer becomes
conscious of being dreaming and acquires some degree of control over his
attitudes and the environment in which he is inserted. This was long seen as an
impossibility, even when they succeeded proving that it was possible, the
scientific community delay to accept the evidence. The idea of being self-
conscious while asleep seemed contradictory. In addition, although it is a natural
phenomenon, only few people have it naturally, making it more difficult to
accept. Aristotle classified dreams as pertaining to the faculty of the
imagination, and this, in turn as pertaining to the sense-perception faculty and
cause of the dream was that, due to the intense stimulus received during the day,
the sense-perception faculty, such as an object thrown into the air continues to
move even without having anything else to push, it would continue to operate
with the senses already shut off; and the same with the faculty of reason. It was
only in the second half of the last century that it became possible to analyze the
functioning brain, thus enabling a more exact science of dreams. It was noticed
that the brain frequency as well as the muscular tension was altered in a
programmed form, and it was discovered that the dreams occur mainly in one of
these states, that denominated REM (Rapid Eyes Movement). A new theory of
the cause of dreams emerged, activation-synthesis hypothesis which discarded
the Freudian theory, because dreams are the result of changes in neuronal
activity occurring with all mammals and not, exclusively, products of the
excitation of nerve cells. With the technology and this new theory at hand it was
294
possible to explore dreams not as reports, but while they happened. In this way,
some pioneers (Stephen Laberge; Keith Hearne) were able to prove that it was
possible to be conscious in dreams by sending predetermined signals through
eye movements during the REM state. This discovery comes to shake our
common sense about what it means to sleep, to dream, to wake up; and even
about what reality is.
CONHECIMENTO E AÇÃO NA PERSPECTIVA DE HEGEL
KNOWLEDGE AND ACTION ON HEGEL’S PERSPECTIVE
Pôster / Poster
SILVA, Gabriel Rodrigues da.
Unesp / Marília
Nesta comunicação me proponho a apresentar a relação entre o
conhecimento (Wissen) e a ação humana (Handlung) na perspectiva do filósofo
alemão Georg Wilhelm Friedrich Hegel (1770-1831). Para isso, faço uso,
principalmente, da obra Fenomenologia do Espírito (Phänomenologie des
Geistes) – publicada em 1807. Conforme estabelece o próprio filósofo, esta obra
é a ciência da experiência da consciência. E, ao longo dela, podemos perceber
que o filósofo não faz uma separação entre o conhecimento e a ação. Isto é, ele
não os considera como dois momentos distintos e separados. Portanto, a
compreensão de que primeiro conhecemos e que somente depois disso é que
agimos, ou até mesmo a compreensão de que agimos primeiramente para que,
após isso, possamos conhecer, são ambas, segundo a filosofia de Hegel,
errôneas e insuficientes como modelos explicativos do conhecimento e da ação
humana. Mas, ao invés disso, o filósofo busca unir estes dois aspectos: o
conhecimento e a ação. Concebendo-os como distintos, porém inseparáveis. O
sujeito que está conhecendo é o mesmo sujeito que está agindo. Tal dicotomia
entre o conhecer e o agir, como é comumente definida, mantém o conhecimento
e o caracteriza com algo passivo, inerte e estático, em oposição à ação, que é
definida como algo ativo, dinâmico e móvel. Mas, ao invés disso, de acordo
com a filosofia hegeliana, o próprio conhecer já é um processo ativo, enérgico,
dinâmico e vivo. A relação de conhecimento entre o sujeito [que conhece] e o
objeto [que é conhecido] não é uma relação pronta, dada e imediata. Mas,
contrariamente, esta relação pressupõe a construção que o sujeito exerce quando
está conhecendo. E o mesmo ocorre quando o sujeito está agindo. Portanto, a
ação humana de modo algum é algo acabado, prontamente estabelecido pelo
sujeito e que, sendo assim, só precisa ser executado. Mas, pelo contrário, a ação
295
mesma é um conhecer que está acontecendo e sucedendo-se conforme a ação
desenrola-se.
In this communication I propose to present a relation between
knowledge (Wissen) and human action (Handlung) from the perspective of the
German philosopher Georg Wilhelm Friedrich Hegel (1770-1831). For this, I
will use mainly of the Phenomenology of Spirit (Phenomenologie des Geistes) -
published in 1807. According the philosopher himself, this work is a science of
the experience of consciousness. Moreover, throughout the work, it we can see
that the philosopher does not make a separation between knowledge and action.
That is, he does not regard them as two separate and distinct moments.
Therefore, the comprehension of first we knowledge and that only after, we act,
or that even the comprehension that we act for the, after that, we may know, are,
according Hegel's philosophy, erroneous and insufficient as explanatory models
of knowledge and of the human action. But, on the contrary, the philosopher
seeks to unite the two aspects: knowledge and action. Conceiving them as
distinct but inseparable. The subject who’s knowing is the same who’s acting.
Such a dichotomy between knowing and acting, as is commonly defined,
maintains knowledge and featuring with something passive, inert and static, in
front of action, which is defined as active, dynamic, and mobile. On the
contrary, according to the Hegelian philosophy, knowledge itself is already an
active, dynamic, and living process. The relation of knowledge between the
subject and the object is not a ready, given and immediate relation. But, on the
contrary, this relation presupposes a construction that the subject exercises when
he is knowing. And the same occur is when the subject is acting. Therefore, a
human action is by no means something finished, readily established, and so it
only needs to be performed. But, on the contrary, an action same itself is a
knowledge, that is happening and succeeding as the action unfolds.
PERSPECTIVAS DO CROSS-CULTURE PARA BIBLIOTECAS
HÍBRIDAS
CROSS-CULTURE PERSPECTIVES FOR HYBRID LIBRARIES
Comunicação Oral / Oral Communication
SILVA, Rafaela Carolina.
Unesp / Marília
CALDAS, Rosângela Formentini.
Unesp / Marília
296
Ao se levar em conta que as sociedades se caracterizam por grupos de
pessoas que habitam certo período e tempo no espaço, infere-se que, com o
surgimento de novos costumes, histórias, leis, hábitos e comportamentos
cotidianos, há uma mudança no modo como as bibliotecas irão interagir com
seus usuários. Logo, entende-se que as maneiras pelas quais uma biblioteca cria,
organiza e dissemina a informação se transformam de acordo com as mudanças
culturais de seus usuários. Nesse contexto, as Tecnologias de Informação e
Comunicação vêm agregar valor às tecnologias analógicas de tratamento da
informação, dando início às discussões acerca do conceito de bibliotecas
híbridas. Tal conceito trabalha com a convergência de tecnologias analógicas e
digitais para melhor lidar com as mudanças em sociedade e as novas
perspectivas que essas mudanças trazem às bibliotecas. Portanto, torna-se
necessário um entendimento acerca da cultura institucional para uma melhor
atuação nas bibliotecas - suas normas, valores e regras, assim como uma
discussão acerca da teoria de hibridez e sua aplicação nas diferentes localidades
onde existam bibliotecas denominadas híbridas, já que essas bibliotecas também
poderiam atuar em outras áreas de suas comunidades. Nesse cenário, o método
Cross-Culture destaca-se como uma metodologia de pesquisa que permite o
entendimento das diferentes realidades das bibliotecas híbridas, a partir do
reconhecimento da interculturalidade existente nesses ambientes. O objetivo do
estudo compreendeu verificar se o método Cross-Culture poderia se designar
como uma metodologia passível de caracterizar os elementos que fundamentam
o conceito de bibliotecas híbridas. Buscou-se um conceito que destacasse as
bibliotecas híbridas como parte de um cenário de auxílio em suas comunidades.
A pesquisa caracterizou-se por ser de natureza qualitativa e exploratória. O
método de pesquisa utilizado foi a Pesquisa Bibliográfica na Base de Dados
Referenciais de Artigos e Periódicos em Ciência da Informação e na Scientific
Electronic Library Online. O levantamento dos artigos estudados ocorreu por
meio das palavras-chave “bibliotecas híbridas”, “hibridez em bibliotecas”,
“conceito de bibliotecas híbridas” e “desenvolvimento cultural” como assuntos
principais e títulos. O foco da coleta de dados foi os resumos dos artigos
científicos levantados e a escolha pelas bases de dados ocorreu pelo fato de elas
representarem a integração de todas as áreas da Ciência a Informação em âmbito
brasileiro. Observou-se que o método Cross-Culture permite a visualização da
hibridez em bibliotecas como ação indispensável para a promoção do acesso e
atendimento às necessidades gerais do público com quem trabalham, uma vez
que abarcam a convergência de informações, ferramentas, serviços e processos
para que suas comunidades se desenvolvam. Concluiu-se que as bibliotecas
híbridas podem ser conceituadas como equipamentos culturais que trabalham
não só com políticas institucionais, mas com a interligação dessas políticas com
as políticas públicas que regem a cultura do seu público-alvo. Assim, ao se
297
trabalhar com as políticas públicas inerentes a cada cultura, percebeu-se que o
conceito de bibliotecas híbridas traz uma proposta de interculturalidade dentro
dos equipamentos culturais. Nessa perspectiva, a biblioteca híbrida possui
princípios institucionais flexíveis, que se moldam de acordo com o enfoque
dado por cada localidade trabalhada.
Taking into account that societies are characterized by groups of people
who inhabit a certain period and time in space, it is inferred that, with the
emergence of new customs, histories, laws, habits and daily behaviors, there is a
change in the way in which the libraries will interact with their users. It is
understood that the ways in which a library creates, organizes, and disseminates
information is transformed according to the cultural changes of its users. In this
way, the Information and Communication Technologies add value to the analog
technologies of information processing, starting the discussions about the
concept of hybrid libraries. This concept works with the convergence of analog
and digital technologies to better deal with changes in society and the new
perspectives that these changes bring to libraries. It is necessary to understand
the hybrid libraries’ institutional culture for a library’s better performance - its
norms, values and rules, as well as a discussion about the theory of hybridity
and its application in different localities where there are libraries denominated
hybrids. In this scenario, the Cross-Culture stands out as a research
methodology that allows the understanding of the different realities of the
hybrid libraries, from the recognition of the interculturality existing in these
environments. This study aimed to verify if the Cross-Culture could be
designated as a methodology capable of characterizing the elements that
underlie the concept of hybrid libraries. The study sought to find a concept that
highlights the hybrid libraries as a part of the scenario of their communities. The
research was characterized by a qualitative and exploratory nature. The method
of research used was the Bibliographic Research in the Base de Dados
Referenciais de Artigos e Periódicos em Ciência da Informação and Scientific
Electronic Library Online. The choice of the articles was carried out through the
keywords "hybrid libraries", "hybridity in libraries", "concept of hybrid library"
and "cultural development" as main subjects and titles. The focus of the data
collection was the abstracts of the scientific articles raised and the choice for the
data bases occurred because they represent the integration of all the areas of
Science and Information in Brazilian scope. It was observed that the Cross-
Culture method allows the visualization of the hybridity in libraries as an
indispensable action for the promotion of access and attendance to the general
needs of the public with whom they work, since they cover the convergence of
information, tools, services and processes to the development of communities. It
was concluded that hybrid libraries can be conceptualized as a cultural
equipment that works not only with institutional policies, but with the
interconnection of these policies with the public policies that govern the culture
298
of its public. When working with the public policies inherent to each culture, it
was noticed that the concept of hybrid libraries brings a proposal of
interculturality within a cultural equipment, and that hybrid libraries have
flexible institutional principles, which are shaped according to the approach
given by each locality in which its works.
A FILOSOFIA E A CIÊNCIA DA INFORMAÇÃO: O
POTENCIAL CRÍTICO-REFLEXIVO NA FORMAÇÃO DE
SERES AUTÔNOMOS
PHILOSOPHY AND INFORMATION SCIENCE: A CRITICAL-
REFLECTIVE POTENTIAL IN THE FORMATION OF SELF-
BEING
Pôster / Poster
SILVA, Rafaela Carolina.
Unesp / Marília
CAMILLO, Everton da Silva.
Unesp / Marília
MELLO, Mariana Rodrigues Gomes de.
Unesp / Marília
No processo de conhecimento, o ser humano precisa ser autônomo,
crítico e reflexivo, sendo que a Filosofia pode e deve auxiliar nesse processo.
Apesar da polissemia conceitual do termo Filosofia, aqui ela é conceituada com
uma investigação crítica, que permeia e trabalha em conjunto com todas as
ciências, atuando como fundamento de diversas reflexões. Todavia, o ensino da
Filosofia encontra entraves no acesso à sociedade, em face da linguagem
extremamente erudita, presente na maioria dos textos e no preconceito ou
antipatia que o próprio leitor já traz consigo, à medida que a compreende como
algo difícil e sem função. Nessa perspectiva, a produção de material atrativo e
adequado às diferentes faixas etárias se torna um suporte imprescindível na
mediação da informação filosófica. Entende-se que a sociedade vive em um
contexto utilitarista, que almeja a aplicação imediata do conhecimento como
retorno financeiro ou bem-estar. Nesse universo pragmático, a Filosofia tem seu
potencial minimizado, haja vista que não interfere imediatamente na ordem
299
prática. Posto isso, se faz necessário a capacitação de profissionais da
informação como mediadores nesse processo de aprendizagem em unidades de
informação. Contudo, não é esperado que o profissional da informação se torne
um especialista em Filosofia, mas que ele esteja apto para indicar ao usuário os
conteúdos para que ele possa adquirir conhecimento acerca do tema ou filósofo
que procura. Para tanto, é preciso vislumbrar e adequar a Filosofia ao cotidiano,
quando possível, como uma via de solução tanto de problemas teóricos, quanto
práticos. O objetivo deste estudo foi apresentar possibilidades de formação de
seres autônomos e críticos a partir da capacitação de profissionais da informação
em unidades de informação no Brasil. A pesquisa caracterizou-se por ser de
natureza qualitativa e exploratória. O método de pesquisa incide numa Pesquisa
Bibliográfica na Base de Dados Referenciais de Artigos e Periódicos em Ciência
da Informação e na Scientific Electronic Library Online. O levantamento dos
artigos a serem estudados ocorreu por meio das palavras-chave “filosofia”,
“ciência da informação”, “autonomia do indivíduo” e “processo crítico-
reflexivo” como assuntos principais e títulos. O foco da coleta de dados foram
os resumos dos artigos científicos levantados e a escolha pelas bases de dados
ocorreu pelo fato de elas representarem a integração de todas as áreas da Ciência
da Informação em âmbito brasileiro. Cabe ressaltar que, no Brasil, a Filosofia
ficou excluída da educação básica por toda a ditadura militar e também por um
período posterior. Somente retornou ao currículo da educação básica como
disciplina obrigatória acerca de uma década. Entretanto, forças político-
ideológicas têm corroborado para minimizar o seu papel ou, até mesmo, retirá-la
do currículo, objetivando-se potencializar a tecnocracia frente à reflexão e à
crítica. Nesse sentido, os profissionais da informação podem desencadear um
processo crítico-reflexivo no seu público alvo, contribuindo para que unidades
de informação cumpram seu papel de tornar a informação viável e acessível,
pois, ao nos apropriarmos de um texto ou uma teoria filosófica, há a
possibilidade da Filosofia se tornar prático-reflexiva, contribuindo para a
formação de seres autônomos e atuantes na sociedade.
In the process of knowledge, the human being must be autonomous,
critical and reflective, and the Philosophy can and should assist in this process.
In spite of the polysemy concept of the term philosophy, it is here
conceptualized as a critical investigation, which permeates and works together
with all the sciences, acting as the basis of several reflections. Though, the
teaching of Philosophy finds obstacles in the access to the society, in face of the
extremely erudite language present in the majority of its texts and in the
prejudice or antipathy that the reader already brings with it, as it understands as
something difficult and without function. From this perspective, the production
of attractive material, appropriated to the different age groups, becomes an
indispensable support in the mediation of philosophical information. It is
understood that society lives in a utilitarian context, which seeks the immediate
300
application of knowledge as financial return or well-being. In this pragmatic
universe, the Philosophy has its potential minimized, since it does not
immediately interfere in the practical order. Thus, it is necessary to train
information professionals as mediators in this process of learning in information
units. The information professional is not expected to become a specialist in
Philosophy, but to be able to indicate to the user the contents that he needs or
the philosopher he seeks. For that, it is necessary to adapt the Philosophy to the
daily life, when possible, as a way of solving both theoretical and practical
problems. The objective of this study was to present possibilities of autonomous
and criticals’ professionals in information units in Brazil. The research was
characterized by a qualitative and exploratory nature. The research method
focuses on a Bibliographic Search in the Base de Dados Referenciais de Artigos
e Periódicos em Ciência da Informação and in the Scientific Electronic Library
Online. The articles to be studied took place through the keywords
"philosophy", "information science", "autonomy of the individual" and "critical-
reflective process" as main subjects and titles. The focus of the data collection
was the abstracts of the scientific articles raised and the choice for the databases
occurred because they represent the integration of all the areas of Information
Science in the Brazilian scope. It should be noted that, in Brazil, the Philosophy
was excluded from basic education throughout the military dictatorship, and
also for a later period. It only returned to the basic education curriculum as a
compulsory discipline for a decade. However, political-ideological forces have
been corroborated to minimize the role of the Philosophy or even to remove it
from the curriculum, with the aim of enhancing technocracy in the face of
reflection and criticism. In this sense, information professionals can provide a
critical-reflexive process in their target audience, contributing to information
units discover their role of making information viable and accessible, because,
when appropriating a text or a philosophical theory, there is the possibility of
the Philosophy becoming practical-reflexive, contributing to the formation of
autonomous and active beings in society.
OBSERVAÇÃO E INTERPRETAÇÃO: É POSSÍVEL OBSERVAR
SEM INTERPRETAR?
OBSERVATION AND INTERPRETATION: IS IT POSSIBLE TO
OBSERVE WITHOUT INTERPRETING?
Pôster / Poster
SILVA, Tatiane Pereira
Unesp / Marília
301
O presente trabalho visa expor o seguinte problema: vivendo na era do
excesso de informações, é possível obter uma observação pura, ou seja, comum
a todos, de todos os dados recebidos? Através da concepção Neopositivista, toda
observação vê-se desvinculada de qualquer embasamento teórico que o
indivíduo detém. Isso consiste em dizer que, todos os dados recebidos terão
igual receptividade em qualquer pessoa a que for exposto. A mesma afirmará a
correlação entre os olhos e máquinas fotográficas, ressaltando os mecanicismos
que inserem na estrutura da observação. No entanto, outra vertente de
pensamento filosófico, proposta por Norwood Hanson, defenderá uma teoria
que concebe que a observação está estritamente ligada ao ato de interpretar, o
que equivale a dizer que toda observação tem influência do conhecimento
objetivo/subjetivo do indivíduo e não pode ser concebida doutra maneira, pois
isso implicaria um suicídio lógico. Além de que, toda ação de observar diverge
da simples recepção de dados, o que na época poderia não ter sido levado em
consideração, mas que hoje tem fundamental aplicação, dado que é exponencial
a grandeza de informações a que os indivíduos estão expostos. A noção de
informação oferecida pela vertente da Ecologia Informacional é tida como uma
relação estabelecida entre o meio e o indivíduo, ou seja, as affordances, que são
as possibilidades que o ambiente estende aos seres para induzi-los à ação e que
relaciona-se, portanto, com os nichos, que são a cultura que constitui o espaço
de vivência dos seres e que é relativo a cada um, dado haver somente conexões
entre as mesmas, em nenhum momento igualdade. Aqui, pode-se introduzir as
teses da Psicologia da Forma, comumente conhecida por Gestalt, que defenderá
a prevalência que o todo das relações tem sobre as partes. Logo, estando o nicho
biológico do indivíduo inserido em determinada affordance, ambos irão
interagir, pois ocorre que o indivíduo não pode ser um objeto passivo na
recepção de informação que o meio oferece. Assim, supõe-se, como
determinado pela Teoria da Gestalt, que o ser passará por um processo de
recepção de dados através da percepção dos mesmos, que pode-se dar tanto por
meio visual quanto qualquer outro que envolva os órgãos do sentido,
interpretando e organizando as informações recebidas simultaneamente, dado a
contaminação teórica observacional que todos estamos expostos, considerando
que é fundamental no processo de apreensão do conhecimento. Vemo-nos,
enfim, expostos a um mundo cada vez mais carregado de informação, que está
inter-relacionada com o processo observacional e que, esse último, muito
dificilmente poderá ser concebido como algo puro, dado que não parece
concebível um indivíduo que esteja inserido num meio e não formule sobre ele
qualquer espécie de interpretação ou que duas pessoas possam deter igual carga
de conhecimento que os induza a uma mesma inferência quando expostas a uma
mesma situação ou objeto. Logo, dificilmente poderá ocorrer uma observação
privada de qualquer interpretação pessoal, dado que, dependendo das condições
302
tanto do ambiente quanto do indivíduo, o olhar do observador selecionará
determinadas informações que o meio disponibiliza.
The present paper aims to expose the following problem: living in the
era of excessive information, is it possible to obtain a pure observation, that is,
common to all, of all the data received? Through the Neopositivist conception,
all observation is detached from any theoretical foundation that the individual
holds. That is to say that all data received will have equal receptivity in any
person to which it is exposed. The same will affirm the correlation between the
eyes and cameras, emphasizing the mechanisms that insert in the structure of the
observation. However, another strand of philosophical thought, proposed by
Norwood Hanson, will defend a theory which conceives that observation is
strictly linked to the act of interpreting, which is to say that all observation is
influenced by the individual's objective / subjective knowledge and cannot be
conceived in another way, as this would imply a logical suicide. Besides that,
every action of observing diverges from the simple reception of data, which at
the time could not have been taken into account, but which today has
fundamental application, given that it is exponential the amount of information
to which the individuals are exposed. The notion of information offered by the
field of Informational Ecology is seen as an established relation between the
environment and the individual, that is, the affordances, which are the
possibilities that the environment extends to beings to induce them to action and
that relates, therefore, with the niches, which are the culture that constitutes the
living space of beings and that is relative to each one, given that there are only
connections between them, at no time equality. Here, one can introduce the
theses of the Psychology of the Form, commonly known as Gestalt, that will
defend the prevalence that the whole of the relations has on the parts. Therefore,
since the individual's biological niche is inserted into a given affordance, both
will interact, since it occurs that the individual cannot be a passive object in the
reception of information that the medium offers. Thus, it is assumed, as
determined by Gestalt Theory, that the being will go through a process of
receiving data through the perception of the same, which can be done by visual
means as any other involving the sense organs, interpreting and organizing the
information received simultaneously, given the theoretical observational
contamination that we are all exposed, considering that it is fundamental in the
knowledge seizure process. We are exposed, finally, to a world that is more and
more loaded with information, which is interrelated with the observational
process and which the latter can hardly be conceived of as pure, since it does not
seem conceivable that an individual who is inserted in a medium and does not
formulate on it any kind of interpretation or that two persons may hold an equal
burden of knowledge that induces them to the same inference when exposed to
the same situation or object. Therefore, a private observation of any personal
interpretation can hardly occur since, depending on the conditions of both the
303
environment and the individual, the observer's gaze will select certain
information that the medium makes available.
A QUASE VERDADE A PARTIR DA LÓGICA CLÁSSICA
QUASI-TRUTH FROM THE CLASSICAL LOGIC
Pôster / Poster
SILVESTRINI, Luiz Henrique da Cruz.
Unesp / Bauru
BOATO, Luis Felipe Salvador.
Unesp / Bauru
A noção semântica da quase-verdade foi introduzida em 1986 por
Newton da Costa e colaboradores e definida por meio de estruturas parciais,
cujos predicados são entendidos como triplas ordenadas de conjuntos
mutuamente disjuntos, a saber: as sequências (n-uplas) que satisfazem o
predicado, as que não satisfazem e as sequências cuja satisfação ao predicado é
indeterminada, ou desconhecida. Diante desse cenário de parcialidade
internalizada por meio das relações parciais nas estruturas, as quais promoviam
um ambiente natural para lógicas paraconsistentes, a noção de predicados como
triplas ordenadas pôde ser estendida para qualquer fórmula presente na
linguagem de primeira ordem. Assim, uma nova noção de quase-verdade foi
obtida, e um sistema lógico paraconsistente adequado para esta nova semântica
foi explicitado. O sistema subjacente a esta nova interpretação para a quase-
verdade é chamado de Logic of Pragmatic Truth (LPT), uma lógica
paraconsistente de primeira ordem cuja base proposicional é uma lógica
trivalente. Em geral, quando estudamos uma lógica paraconsistente, como é o
caso de LPT, utilizamos uma linguagem em que, como conectivo primitivo,
temos uma negação paraconsistente (ou fraca), e depois, a partir de tal semântica
(neste caso uma semântica matricial), é possível definirmos outros conectivos,
tais como: disjunção, top, bottom, consistência, bicondicional e, por fim, a
negão clássica (ou forte). Em certo sentido, estamos dizendo que temos uma
lógica paraconsistente e nesta lógica podemos conceber um fragmento clássico.
Contudo, podemos trazer motivações no sentido oposto, i.e., a partir da lógica
clássica, buscarmos definir um tipo de negação paraconsistente. O objetivo do
presente trabalho é promover desenvolvimentos da LPT, no sentido de
concebermos tal lógica paraconsistente e trivalente como uma extensão do
304
Cálculo Proposicional Clássico. Com efeito, o modo como vemos a relação
entre LPT e a lógica clássica depende de como entendemos o papel da negação
fraca, a partir da linguagem de LPT.
The semantic notion of quasi-truth was introduced in 1986 by Newton
da Costa and collaborators and defined by means of partial structures, whose
predicates are understood as ordered triples of mutually disjoint sets, namely:
(n-tuples) sequences satisfying predicate, those that do not satisfy and the
sequences whose satisfaction to the predicate is undetermined, or unknown.
Faced with this scenario of internalized partiality through the partial relations in
the structures, which promoted a natural environment for paraconsistent logics,
the notion of predicates as ordered triples could be extended to any formula
present in the first order language. Thus, a new notion of quasi-truth was
obtained, and a paraconsistent logical system suitable for this new semantics
was made explicit. The system underlying this new interpretation for quasi-truth
is called Logic of Pragmatic Truth (LPT), a paraconsistent first-order logic
whose propositional basis is a trivalent logic. In general, when we study a
paraconsistent logic, such as LPT, we use a language in which, as primitive
connective, we have a paraconsistent (or weak) negation, and then, from such
semantics (in this case a matrix semantics), it is possible to define other
connectives, such as: disjunction, top, bottom, consistency, biconditional and,
finally, classical (or strong) negation. In a sense, we are saying that we have a
paraconsistent logic and, in this logic, we can conceive a classical fragment.
However, we can bring motivations in the opposite direction, i.e. from classical
logic, we try to define a kind of paraconsistent negation. The aim of the present
work is to promote LPT developments, in the sense of designing such
paraconsistent and trivalent logic as an extension of the Classical Propositional
Calculus. Indeed, the way we see the relationship between LPT and classical
logic depends on how we understand the role of weak negation from the LPT
language.
DE QUEM É O LIKE?: REFLEXÕES SOBRE A POSSE E A
RESPONSABILIDADE NO CONTEXTO VIRTUAL
WHOSE IS THE LIKE?: THINKING ABOUT PROPERTY AND
RESPONSIBILITY ON VIRTUAL CONTEXT
Pôster / Poster
SIMÃO, Luciano Lourenço.
Unesp / Marília
305
Viktor Mayer-Schonberger e Kenneth Cukier, em sua pesquisa sobre os
Big Data, sugerem que a sociedade atual passa por três grandes mudanças de
mentalidade, que se interligam e se reforçam mutualmente: (1) a capacidade de
se coletar e analisar grandes quantidades de dados, em vez de ter que trabalhar
com conjuntos menores de dados sobre um tema; (2) a disposição para se aceitar
a desordem dos dados em vez de primar pela exatidão; (3) a crescente busca por
correlações, em vez de se buscar a determinação de relações causais. Neste
contexto, é possível fazer a seguinte indagação, que guiará este trabalho:
podemos atribuir a alguém a posse de dados gerados virtualmente, bem como a
responsabilidade por eles e suas possíveis implicações? Consideremos os dois
exemplos a seguir: 1- Imagine um determinado grupo do Facebook, onde os
usuários se disponham a criar uma história coletiva. Os usuários desse grupo
fazem sugestões de desfechos para o enredo, das quais será sempre escolhida
aquela sugestão que obtiver maior quantidade de likes. Ao finalizar a história, o
criador do grupo faz um apanhado do resultado do trabalho coletivo e o entrega
a uma editora, que resolve publicar como um livro, que acaba se tornando um
best-seller. Teriam os usuários desse grupo, que deram sugestão no enredo, o
direito de pleitear a coautoria da história? 2- Não é incomum encontrarmos
casos de cyberbullying, que é uma forma de agressão pela internet. Muito
comum entre os jovens, essa conduta pode ser extremamente nociva a quem
sofre desse tipo de abuso, podendo desencadear males a saúde, como quadros de
depressão profunda. As pessoas que praticam, ou mesmo, incentivam por meio
de likes esse tipo de ação, poderiam ser responsabilizadas, juridicamente, caso
isso levasse a vítima a cometer suicídio? O objetivo do presente trabalho é
investigar quais são os limites do que se entende por posse e responsabilidade
nas redes sociais, com foco no uso do Facebook. Somos proprietários dos
nossos likes? Se somos, a forma como o Facebook atualmente coleta e utiliza os
dados que geramos, respeita o nosso direito à propriedade? Por outro lado, se
temos o direito à propriedade sobre os dados que geramos, poderíamos ser
responsabilizados pelas consequências de nossas ações no ambiente virtual?
Essas são algumas das questões que nos propomos a refletir e a debater.
Viktor Mayer-Schonberger and Kenneth Cukier, in their research on
Big Data, suggest that present-day society undergoes three major interrelated
and mutually reinforcing mentality changes: (1) the ability to collect and
analyze large amounts of data rather than having to work with smaller sets on a
theme; (2) the willingness to accept the clutter of data rather than prevailing for
accuracy; (3) the increasing search for correlations rather than the determination
of causal relationships. In this context, it is possible to ask the following
question, which will guide this work: can we attribute to someone the ownership
of virtually generated data, as well as the responsibility for them and their
possible implications? Consider the following two examples: 1- Imagine a
particular Facebook group where users are willing to create a collective story.
306
Users in this group make suggestions for plot outcomes, from which will always
be chosen that suggestion that gets the most likes. At the end of the story, the
creator of the group takes a look at the results of the collective work and sends it
to a publisher, who decides to publish it as a book, which ends up becoming a
bestseller. Would the users of the group, who have given suggestion to the plot,
have the right to plead for the co-authority of the story? 2- It is not uncommon
to find cases of cyberbullying on facebook, which is a form of internet
aggression. Very common among young people, this behavior can be extremely
harmful to those who suffer from this kind of abuse and can initiate health
problems such as depression. Are people who practice, or even encourage, this
kind of action, legally liable if it would lead the victim to commit suicide? The
present work aims to investigate the limits of what is meant by ownership and
responsibility in social networks, focusing on the use of Facebook. Are we the
owners of our likes? If we are, does the form how Facebook currently collects
and uses the data we generate respect our right to property? On the other hand,
if we have the right to ownership of the data we generate, could we be held
accountable for the consequences of our actions in the virtual environment?
These are some of the questions that we propose to reflect and debate on.
MINERAÇÃO DE DADOS NA IDENTIFICAÇÃO DO PERFIL DE
USUÁRIOS: INFORMAÇÃO E CONHECIMENTO
DATA MINING IN THE IDENTIFICATION OF USER
PROFILE: INFORMATION AND KNOWLEDGE
Pôster / Poster
SOUZA, Maria Aparecida Rodrigues de.
IFG
OLIVEIRA, Lais Pereira de.
Unesp / Marília
Trata das potencialidades dos big data para a identificação do perfil de
usuários da biblioteca, a partir da mineração de dados. Considera, para tal, as
mudanças tecnológicas em larga escala que operam transformação em
atividades de bibliotecas. De modo que a problemática central da pesquisa é:
quais as potencialidades dos big data para a identificação do perfil de usuários
da biblioteca, a partir da técnica de mineração de dados? O uso de tecnologias
suscita mudanças na aquisição de conhecimento e habilidades e, gestores de
307
bibliotecas enfrentam o desafio de monitorar comportamentos de usuários para
incentivar a educação para a informação. As bibliotecas põem-se a conduzir
cursos de capacitação e criam estratégias de divulgação do acervo apoiando-se
em tecnologias digitais. Dispõem, contudo, de um volume considerável de
informações e dados, criando relevantes oportunidades para pesquisa e inovação
mediante a análise de big data. Diante disso, a pesquisa objetivou analisar as
potencialidades dos big data para a identificação do perfil de usuários da
biblioteca, a partir da técnica de mineração de dados. Parte-se da hipótese
central que a expressiva quantidade de informações pode vir a favorecer o
redimensionamento da forma de classificar o conhecimento. Logo, em termos
específicos buscou-se analisar como uma biblioteca tem se utilizado dos dados
acerca do padrão de busca de certos gêneros literários. Pautou-se pela análise
aprofundada de uma unidade da biblioteca, mais especificamente, o setor de
atendimento. No estudo de caso realizado, a biblioteca utilizou-se da análise de
big data, por meio de técnicas e instrumentos para processar e interpretar o
volume de dados e informações gerados do monitoramento do sistema de
gerenciamento do acervo. Entre essas técnicas incluiu-se a mineração de dados,
perfil e classificação dos usuários. O big data, além de oferecer oportunidade
para a biblioteca prover novos serviços aos usuários para explorar informações,
tornou-se um determinante-chave de aproximação do público atendido. A
aplicação da mineração de dados permitiu ao bibliotecário monitorar em tempo
real e virtual as operações e ajustar o processo de atendimento aos usuários. Por
outro lado, permitiu aos alunos ter acesso a serviços mais personalizados que
serão especificamente produzidos para suas necessidades. A análise de big
data abriu igualmente significativas oportunidades para a melhoria na eficiência
da gestão de uma biblioteca. A coleta e a análise de dados no setor da biblioteca
resultou em melhores políticas e serviços públicos, fortalecendo a transparência
e capacidade de resposta das demandas. A análise de big data em bibliotecas
traz desafios também. Em primeiro lugar, há diversas lacunas que precisam ser
preenchidas em políticas de qualificação de bibliotecários, em tecnologias de
informação. Em segundo lugar, a exclusão digital poderá resultar em crescente
exclusão social e na concentração de poder nas instituições baseadas em dados.
Em terceiro lugar, a análise de big data pode incentivar a coleta em larga escala
de dados pessoais que poderão se tornar acessíveis a terceiros, violando direitos
individuais à privacidade. Em quarto lugar, a possibilidade de combinar dados
pessoais com programas de reconhecimento de padrões de comportamento pode
viabilizar a manipulação, distorção de percepção e influenciar decisões dos
indivíduos.
It deals with the potentialities of the big data for identifying the profile
of library users, from the data mining. To this end, it considers large-scale
technological changes that are transforming into activities of libraries. So the
central problem of the research is: what are the potentialities of the big data for
308
the identification of the profile of users of the library, from the technique of data
mining? The use of technologies provokes changes in the acquisition of
knowledge and skills, and library managers face the challenge of monitoring
user behaviors to encourage education for information. Libraries are conducting
training courses and strategies for disseminating the acquis based on digital
technologies. They do, however, have a considerable amount of information and
data, creating relevant opportunities for research and innovation through the
analysis of big data. In view of this, the research aimed to analyze the
potentialities of the big data for the identification of the profile of users of the
library, based on the data mining technique. It is based on the central hypothesis
that the expressive amount of information available to the library may favor the
re-dimensioning of the way knowledge is classified. Therefore, in specific terms
we tried to analyze how a library has been used of the data about the search
pattern of certain literary genres. It was guided by the in-depth analysis of a
library unit, more specifically, the service sector. In the case study, the library
used the big data analysis, through techniques and instruments to process and
interpret the volume of data and information generated from the monitoring of
the collection management system. These techniques included data mining,
profile and user classification. The big data, in addition to providing library
opportunity to provide new services to users to explore information, has become
a key determinant of approaching the public served. The application of the data
mining allowed the librarian to monitor in real time and virtual the operations
and to adjust the process of attending to the users. On the other hand, it allowed
students to have access to more personalized services that will be specifically
produced for their needs. The big data analysis has also opened significant
opportunities for improving the efficiency of library management. Collection
and analysis of data in the library sector resulted in better public policies and
services, strengthening transparency and responsiveness of demands. The
analysis of big data in libraries brings challenges as well. First, there are several
gaps that need to be addressed in librarian qualification policies in information
technology. Second, digital exclusion may result in increasing social exclusion
and concentration of power in data-based institutions. Thirdly, the big data
analysis can encourage large-scale collection of personal data that may become
accessible to third parties, violating individual rights to privacy. Fourth, the
possibility of combining personal data with behavior pattern recognition
programs can enable manipulation, distortion of perception, and influence
individual decisions.
O ARGUMENTO DO MILAGRE E A FALÁCIA DA TAXA-BASE
THE NO-MIRACLES ARGUMENT AND THE BASE-RATE
FALLACY
309
Pôster / Poster
SOUZA, Pedro Bravo de.
Unesp / Marília
ALVES, Marcos Antônio.
Unesp / Marília
Objetivamos discutir a hipótese, avançada por Colin Howson em
Hume’s problem, de que o argumento do milagre comete a falácia da taxa-base.
Por falácia da taxa-base entende-se a negligência do valor da probabilidade
prévia de determinada hipótese H, P(H), tal como exemplificado no célebre
Teste da Escola Médica de Harvard. Por sua vez, o argumento do milagre
(doravante, AM) é um dos principais argumentos para defender a tese semântica
do realismo científico, isto é, a tese segundo a qual as teorias científicas
maduras são aproximadamente verdadeiras. Para Howson, AM pode ser
formulado do seguinte modo: se uma teoria T prediz independentemente um
dado observacional E e T não e aproximadamente verdadeira, então seu acordo
com E deve ser acidental; os dados de E são tais que um acordo acidental de T
com eles e extremamente improvável; a minúscula probabilidade de T estar em
acordo com E sem ser aproximadamente verdadeira e extraordinariamente tão
pequena de modo que podemos rejeitar a hipótese segundo a qual ha um acordo
acidental; logo, T e aproximadamente verdadeira. Assumindo que S representa
“a teoria T tem sucesso preditivo” e V “a teoria T é verdadeira”, AM
formalizado probabilisticamente defende, a partir de que P (S | V) possui valor
alto e P (S | V) < k ≪ 1, que P (V | S) possui valor alto. Como pode-se notar por
meio de uma das formas do Teorema de Bayes, a conclusão apenas se segue se
P (V) possuir valor considerável: AM cometeria, então, a falácia da taxa-base.
Tal crítica de Howson despertou duas categorias de reação na literatura
especializada: por um lado, alguns autores tentam mostrar que a formalização
probabilística de AM é errônea e, destarte, que a crítica de Howson é inócua;
por outro lado, outros autores aceitam a crítica de Howson ao mesmo tempo em
que procuram limitá-la. Após apresentarmos esse debate, deter-nos-emos na
objeção de que a própria formalização probabilística de AM é problemática, tal
como defendem John Worrall e Stathis Psillos. Em posse de dois critérios para
avaliar formalizações em filosofia, concluiremos determinando a plausibilidade
da formalização de AM suposta na crítica legada por Howson.
We aim to discuss the hypothesis, advanced by Colin Howson’s
Hume's problem, according to which the no-miracles argument commits the
base-rate fallacy. By base-rate fallacy, we mean the prior probability of a given
310
hypothesis H neglection, as the famous Harvard Medical School Test
exemplifies. In turn, the no-miracles argument (hereafter, NMA) is one of the
main arguments sustaining scientific realism semantic thesis, i.e, the thesis
according to which mature scientific theories are approximately true. For
Howson, NMA can be formulated as follows: if a theory T independently
predicts an observational data E and T is not approximately true, then its
agreement with E must be accidental; the data of E is such that an accidental
agreement of T with them is extremely unlikely; the minuscule probability that
T is in agreement with E without being approximately true is extraordinarily so
small that we can reject the hypothesis that there is an accidental agreement;
hence, T is approximately true. Assuming that S represents “theory T has
predictive success” and R “theory T is true”, NMA formalized probabilistically
argues that, since P(S | R) has a high value and P(S | R) < k ≪ 1, P(R | S) has a
high value. As can be seen from one of the forms of the Bayes’ Theorem, the
conclusion only follows if P(R) is sufficiently large: NMA would then commit
the base-rate fallacy. Howson’s critic has aroused two categories of reaction in
the specialized literature: on the one hand, some authors try to show that the
probabilistic formalization of NMA is erroneous, and thus, that Howson's
critique is innocuous; on the other hand, other authors do accept Howson's
criticism while trying to limit its scope. After presenting this debate, we shall
dwell on the objection that the probabilistic formalization of NMA itself is
problematic, as John Worrall and Stathis Psillos argue. In possession of two
criteria for evaluating formalizations in philosophy, we will conclude by
determining the plausibility of the formalization of NMA supposed in the
criticism bequeathed by Howson.
SMART CITIES E A MODELAGEM DE BIG DATA
SMART CITIES AND THE BIG DATA MODELING
Pôster / Poster
SOUZA, Lucélia de.
UNICENTRO
MICHELON, Gisane Aparecida.
UNICENTRO
DALL’AGNOL, Josiane Michalak Hauagge.
UNICENTRO
311
RAUTENBERG, Sandro.
UNICENTRO
Smart cities ou cidades inteligentes fazem uso de Tecnologias de
Informação e Comunicação - TICs para gestão de grandes volumes de dados
(big data) para gerar um ecossistema sustentável que forneça serviços para
melhoria da qualidade de vida dos cidadãos. A administração de cidades
inteligentes envolve o uso de modelos e ferramentas tanto para a obtenção
quanto para o gerenciamento desse imenso volume de dados, sendo
caracterizados pelas definições dos 5Vs - Velocidade, Variedade, Veracidade,
Volume e Valor. Na Era de Big Data, os dados são altamente distribuídos,
pervasivos, não estruturados, aleatórios, podem estar padronizados e ligados,
sendo que o seu volume e heterogeneidade crescem a cada dia. Nesse contexto,
diversos desafios surgem quanto ao gerenciamento de coleções de dados que
seja apropriado para esse volume de dados, assegurando um retorno de interesse
para a sociedade. Assim, é importante fornecer embasamento para gerenciar big
data em smart cities. Para exemplificar, atualmente, devido ao enorme volume
de dados a serem gerenciados e a necessidade de maior capacidade de
processamento, o modelo de dados relacional não supre mais as necessidades de
armazenamento e recuperação de informações de forma satisfatória. Para tal,
estão sendo desenvolvidos modelos de dados utilizados em sistemas NoSQL
como grafos, documentos, chave-valor, família de colunas e multi-modelos.
Sistemas NoSQL são caracterizados por apresentarem as propriedades BASE:
Basicamente Available (Basicamente disponível), Soft-State (Estado leve -
escalável) e Eventually Consistent (Eventualmente consistente). Com
propriedades BASE, as aplicações funcionam basicamente disponíveis, não
necessitando estarem consistentes o tempo todo, mas no momento oportuno.
Devido às características de big data, surgiram modelos de programação
distribuída tal como o MapReduce, o qual torna a paralelização quase
inteiramente invisível (mais transparente) para quem está desenvolvendo
aplicações usando esse framework. Este trabalho objetiva apresentar uma
contextualização sobre a modelagem de grandes volumes de dados, abordando
suas principais características e dificuldades, a qual pode ser usada como base
para desenvolver aplicações envolvendo big data em cidades inteligentes.
Smart cities make use of Information and Communication
Technologies - ICT for managing big data to generate a sustainable ecosystem
that provides services to improve the quality of life of citizens. The
administration of smart cities involves the use of models and tools for both the
obtaining and for the management of this immense data volume, being
312
characterized by the settings of the 5Vs - Velocity, Variety, Veracity, Volume
and Value. In the Big Data Age, the data are highly distributed, pervasive,
unstructured, random, can be standardized and linked, being that their volume
and heterogeneity increase every day. In this context, several challenges arise
regarding the management of data collections that is appropriate for this data
volume, ensuring a return of interest to society. Thus, it is important to provide
basement to manage big data in smart cities. For example, due to the large data
volume to be managed and the need for greater processing capacity, the
relational data model no longer satisfies the storage and retrieval needs of
information. Data models are being developed to be used in NoSQL systems as
graphs, documents, key-value, columns and multi-models. NoSQL systems are
characterized by presenting the basic properties: Basically Available, Soft-State
and Eventually Consistent. The applications works basically available with
basic properties, so, they do not need to be consistent all the time, but at an right
moment. Due to the characteristics of big data, distributed programming models
have emerged as the MapReduce, which makes parallelization almost entirely
transparent to the developing applications using this framework. This work
presents a contextualization about the modeling of big data, addressing its main
characteristics and challenges that can be used as a basis for developing
applications involving big data in smart cities.
A BIBLIOTECA E O BIBLIOTECÁRIO DE DADOS NA GESTÃO
DE DADOS CIENTÍFICOS: NOVOS PAPÉIS,
CONHECIMENTOS E DESAFIOS
LIBRARIES AND DATA LIBRARIANS IN SCIENTIFIC DATA
MANAGEMENT: NEW ROLES, NEW KNOWLEDGE, NEW
CHALLENGES
Pôster / Poster
SOUZA, Ráisa Mendes Fernandes de.
UFPB
Diante da emergência do compartilhamento de dados científicos no
âmbito da internet, tornou-se necessário repensar o papel da biblioteca e do
bibliotecário nesse contexto. O bibliotecário, como cientista da informação,
deve acompanhar as mudanças tecnológicas e de demandas informacionais,
enriquecendo o seu campo de atuação e ressignificando o seu papel na
sociedade. A presente discussão tem como propósito entender quais são, de
forma mais específica, os papéis necessários às bibliotecas e ao bibliotecário de
dados, ou data librarian, perante o novo contexto oferecido pela e-science. O
313
gerenciamento de dados de pesquisa (GDP) surgiu da necessidade de
tratamento, compartilhamento e preservação de dados científicos no âmbito da
comunidade acadêmica, aspectos semelhantes aos serviços que as bibliotecas
universitárias já prestam com acervos digitais convencionais (teses, dissertações
etc.). Logo, as bibliotecas poderiam intervir nesse processo como líderes de
iniciativas relacionadas à conscientização da academia sobre a relevância do
GDP, além de intervirem em atividades concernentes ao acesso aos conjuntos de
dados, ao preparo das coleções para depósito, à gestão de seus respectivos
metadados e à garantia de armazenamento permanente. Orientações quanto às
formas adequadas de citações de dados de pesquisa em trabalhos acadêmicos,
bem como questões relacionadas aos direitos autorais, à propriedade intelectual
e à privacidade também são outros possíveis serviços de suporte que a biblioteca
poderia oferecer. Quanto ao bibliotecário de dados, existem atribuições que
podem ser desempenhadas por esse profissional, a saber: identificação de
conjuntos de dados para atender às necessidades dos alunos ou do corpo
docente; orientação no acesso a recursos de dados e aconselhamento aos
pesquisadores sobre os padrões atuais de organização de dados em áreas
específicas; auxílio no desenvolvimento de planos de gerenciamento de dados
através da criação de sites especiais para descrever os serviços disponíveis.
Destaca-se a relevância de discussões acerca de métodos mais apropriados para
a indexação de conjuntos de dados observacionais e experimentais pelos
bibliotecários, além de identificar diferenças entre o tratamento de dados sem
carga subjetiva (tabelas, gráficos etc.) e o tratamento de dados com carga
subjetiva (entrevistas, questionários abertos etc.). Concluiu-se que o
bibliotecário de dados ainda é pouco conhecido na literatura científica brasileira,
trata-se de um profissional que precisa definir e consolidar a sua importância
perante a comunidade acadêmica e perante seus pares. É notória a importância
que a literatura levantada deu para a criação de redes, conexões, laços mais
estreitos entre os bibliotecários de dados e os cientistas. Se o bibliotecário até
então se mostrava passivo em relação às demandas dos pesquisadores, a nova
realidade da GDP trará novos desafios que precisarão ser abraçados e superados.
Será necessário repensar a própria graduação em Biblioteconomia, dando a ela
um novo currículo que abarque a presença dos dados de pesquisa, além de mais
conhecimento sobre outras tecnologias, novas percepções sobre a catalogação e
a indexação de dados científicos e outros olhares sobre os metadados. Seria
importante também incluir a gestão de dados científicos na pós-graduação, tanto
stricto sensu quanto lato sensu. Esse contexto reforça a importância do perfil
dinâmico necessário ao bibliotecário.
Given the emergence of scientific data sharing in the internet,
rethinking the role of libraries has become urgent. As information scientists,
librarians must keep up with changes in technology and information
demands, expanding their field and creating new meaning to their role in
314
society. The purpose of the present discussion is to understand more specifically
the roles of libraries and ‘data librarians’ in the new context offered by e-
science. Research data management (RDM) emerged from the need to treat,
share and preserve scientific data within the academic community, similarly to
the services already provided by conventional digital collections ( e.g.
collections of theses and dissertations) of university libraries. Therefore,
libraries could take the lead in initiatives to raise academic awareness about
RDM, and intervene in activities related to accessing data sets, treating
collections for deposit, metadata management and ensuring permanent storage.
Providing guidelines on the right way to quote research data in academic papers
and on related issues regarding copyright, intellectual property and privacy are
also possible support tasks that may be offered by libraries. Possible roles that
may be played by data librarians are: identifying data sets that meet the needs of
students and faculty; guidance for accessing data resources and advising
researchers on current patterns of data organization in particular areas; and
assisting the development of data management plans by creating special
websites to describe available services. The paper notes the relevance of
discussions among librarians about the most appropriate indexing methods for
observational and experimental data sets and of recognizing differences between
subjective data treatments (e.g. interviews, questionnaires, etc) and “non-
subjective” data treatments (e.g. charts, graphs, etc). The paper concludes that
data librarians are still poorly known in the Brazilian scientific literature and
must define their role and demonstrate their importance in the academic
community and among their peers. The references surveyed for this article place
great importance on building up networks, creating connections and establishing
closer ties between data librarians and scientists.. If librarians previously
responded passively to the demands of researchers, the new reality of RDM
brings new challenges to the field that must be embraced and overcome.
Undergraduate programs in librarianship will have to be revised and remade
with a new curriculum covering research data, more knowledge on other
technologies, new perceptions on cataloguing and indexing scientific data, and a
new outlook on metadata. It would also be important to include courses about
scientific data management in strictu sensu and lato sensu graduate programs.
This context stresses the importance of a dynamic work profile for librarians.
IMPLICAÇÕES ÉTICAS DOS BIG DATA NAS INTERAÇÕES
SOCIAIS: UMA INVESTIGAÇÃO SOB A PERSPECTIVA DA
SISTÊMICA
ETHICAL IMPLICATIONS OF BIG DATA IN SOCIAL
INTERACTIONS: AN INVESTIGATION FROM THE
PERSPECTIVE OF SYSTEMICS
315
Pôster / Poster
SOUZA, Renata Silva.
Unesp / Marília
CAVASSANE, Ricardo Peraça.
Unesp / Marília
GONZALEZ, Maria Eunice Quilici.
Unesp / Marília
O objetivo deste trabalho é investigar possíveis influências geradas
pelas técnicas de análise de Big Data na conduta de usuários das redes digitais.
Para tanto, a seguinte questão é proposta: quais as possíveis implicações éticas
de usos de técnicas de análise de Big Data na geração de novas disposições (ou
reforço de disposições existentes) (in)desejáveis para a comunicação e interação
social humana? Para tanto, lançaremos mão de conceitos subjacentes aos
sistemas complexos, bem como de comentadores críticos acerca de técnicas de
análise de Big Data. Na contemporaneidade estamos imersos em um contexto
no qual produzimos, e somos incitados a produzir, diariamente, um montante de
dados expressivo, que são coletados por grandes empresas como Google,
Facebook, Twitter, dentre outras. Para ilustrar a referida informação acerca do
crescimento expressivo de dados, Perez (2015) destaca que a cada mês é
acrescentado ao sistema de armazenamento de dados em média de 30 terabytes
de informações. O montante de dados disponibilizados e armazenados abre
precedente para a emergência de um novo ramo de trabalho, a saber, o
tratamento e mineração de dados através de técnicas e análises de Big Data. As
empresas de manipulação de dados são solicitadas por diversos ramos do
mercado, de produção de produtos farmacêuticos, tecnológicos, companhias
aéreas e de televisão e até mesmo por políticos interessados em alcançar um
maior número de eleitores, como é o caso, por exemplo, da Cambridge
Analytica. Dessa forma, acrescenta Perez, partidos políticos balizam sua
respectiva conduta com base nos dados disponibilizados pelos internautas:
comentários, likes, dentre outros. Tais medidas são muito efetivas para conduzir
a um objetivo almejado, já que as bases de dados com opiniões dos futuros e
atuais eleitores são atualizadas em tempo real, sendo assim muito mais eficaz
(no caso para determinado partido ou grupo político) do que uma pesquisa
comum de opinião. Outra vantagem assinalada da técnica de manipulação de
Big Data, segundo seus defensores, residiria no fato desta estar baseada em
estatísticas que envolvem ‘tráfego de milhões de usuários’, e não apenas de uma
316
amostra pequena da população, como ocorre comumente com as pesquisas de
opinião. Como exemplo da utilização de técnicas de análise de Big Data,
exploraremos o caso da empresa Cambridge Analytica, recentemente envolvida
no escândalo de vazamento de informações acerca da utilização indevida de
dados de usuários do facebook. Os dados coletados, conforme divulgado pela
imprensa e artigos especializados, foram utilizados com o fim de manipular a
conduta dos eleitores (ou mesmo reforçar uma conduta já existente), a partir de
direcionamento personalizado de notícias (ou mesmo de fake news) para
eleitores que possuíam determinados padrões de conduta nas redes sociais
digitais. Analisaremos o referido fenômeno de direcionamento e/ou reforço da
conduta de certos grupos e tipos de pessoas (que foram categorizadas a partir de
cinco características base pela empresa em questão (ALVES 2017)) a partir do
referencial teórico da complexidade, a saber, com os conceitos de feedback
circular, auto-organização primária e secundária, dentre outros, e possíveis
consequências éticas da utilização de tais técnicas para a conduta humana.
The goal of this work is to investigate possible influences generated by
the techniques of Big Data analysis on the conduct of digital network users. To
do so, we propose the following question: What are the possible ethical
implications of use of techniques of Big Data analysis in the generation of new
dispositions (or reinforcement of existing ones) (un)desirable for human
communication and social interaction? To answer this, we will use concepts
underlying complex systems, as well as those of commentators who are critics
of techniques of Big Data analysis. In the contemporary world, we are immersed
in a context in which we produce, and are incited to produce, daily, large
amounts of data, which are collected by companies such as Google, Facebook,
and Twitter, among others. As an illustration of the rate at which data is
accumulated, Perez (2015) reported that every month, an average of 30 terabytes
of information is added to the data storage system. The amount of data made
available and stored sets a precedent for the emergence of a new branch of
work, that of the treatment and mining of data by means of techniques of Big
Data analysis. The companies involved in data manipulation receive requests
from diverse areas, such as the production of pharmaceutical and technological
products, airline and television companies, and politicians concerned with
reaching a greater number of voters, as was the case, for example, with
Cambridge Analytica. In this way, according to Perez, political parties adjust
their conduct based on data made available by the Internet users: comments,
likes, among others. Such measures are very effective in leading towards a
desired goal, since the databases with opinions of current and future voters are
updated in real time, hence being much more efficient (for a particular political
party or group) than a common opinion poll. Another highlighted advantage of
the technique of Big Data manipulation, according to its defendants, lies in the
fact that it is based on statistics that involve ‘the traffic of millions of users’, and
317
not only of a small sample of the population, as is often the case with opinion
polls. As an example of the use of techniques of Big Data analysis, we will
explore the case of the company Cambridge Analytica, recently involved in a
scandal concerning information leaking based on the improper use of the data of
Facebook users. The data collected, as disclosed by the press and specialized
articles, were used with the goal of manipulating the conduct of voters (or
reinforcing an already existing conduct), by the personalized directing of news
(or even fake news) to voters who had shown certain patterns of conduct in
digital social networks. We will analyze the phenomena of directing and/or
reinforcing the conduct of certain groups and types of people (who were
categorized according to five basic characteristics by the company in question
(ALVES, 2017)), using complexity theory and the concepts of circular
feedback, primary and secondary self-organization, and others. Consideration
will be given to possible ethical consequences of the use of such techniques in
terms of human conduct.
O USO DAS TECNOLOGIAS DE INFORMAÇÃO E
COMUNICAÇÃO NO DESENVOLVIMENTO COGNITIVO DO
SER HUMANO
THE USE OF INFORMATION AND COMMUNICATION
TECHNOLOGIES IN THE COGNITIVE DEVELOPMENT OF
THE HUMAN BEING
Pôster / Poster
SUAVE, Aline Laureano.
UEL
Este trabalho busca explorar, o que consideramos a principal
contribuição das Tecnologias de Informação e Comunicação, que reside em
possibilitar o exercício do desenvolvimento cognitivo do ser humano. Tem-se
como proposta o modo como as Tecnologias de Informação e Comunicação
estimulam nosso desenvolvimento cognitivo, repensando assim as diversas
relações existentes entre a tecnologia, cognição e cultura. Busca-se parcialmente
elucidar a proposta baseando-se na memória do pensamento ocidental, i.e.,
apresentar como alguns pensadores expõem a ideia do conhecimento. Em
meados do século XX, o desenvolvimento do computador deu novo fôlego aos
estudos sobre as condições de possibilidade do processo cognitivo. Utilizar-se-á
como base reflexiva e teórica para este trabalho, os pensadores Pierre Lévy e
Donald Norman. Vemos que pela tradição filosófica, a cognição é uma tarefa
318
prioritária, quando não particular, dos processos mentais, deixando em segundo
plano o mundo físico e os objetos técnicos. Teorias recentes que defendem que
para conhecer e atuar no mundo, nossa mente necessita do corpo, de ambiente,
objetos técnicos e interações sociais. Por esse conjunto, para o complexo
desenvolvimento cognitivo, os dispositivos técnicos não são simplesmente
ferramentas ou extensões de habilidades humanas. Como sentir-se seguro em
um mundo, uma natureza não acolhedora, desconhecida e cheia de perigos. A
resposta construída pela própria humanidade é aberta: por meio do
conhecimento. Enfrentando o problema da sobrevivência em um mundo
inóspito, o hominídeo transformou-se em humano quando inventou uma
ferramenta. A ferramenta desenvolveu-se por séculos e milênios, convertendo-
se em um sofisticado aparelho tecnológico. Surge então a necessidade de
entendermos o quanto as Tecnologias de Informação e Comunicação fazem
parte do desenvolvimento do ser humano, mais precisamente, do
desenvolvimento cognitivo. Assim mostrando a importância das mídias atuais
como aliadas no próprio desenvolvimento do indivíduo.
This work seeks to explore, what we consider the main contribution of
Information and Communication Technologies, that lies in enabling the exercise
of the cognitive development of the human being. We propose how the
Information and Communication Technologies stimulate our cognitive
development, thus rethinking the diverse relations between technology,
cognition and culture. It seeks partly to elucidate the proposal based on the
memory of Western thought, i.e. to present as some thinkers expound the idea of
knowledge. In the middle of the twentieth century, the development of the
computer gave new impetus to the studies on the conditions of possibility of the
cognitive process. It will be used as a reflexive and theoretical basis for this
work, the thinkers Pierre Lévy and Donald Norman. We see that by the
philosophical tradition, cognition is a priority, if not a particular task, of mental
processes, leaving the physical world and technical objects in the background.
Recent theories defend that to know and to act in the world, our mind needs
body, environment, technical objects and social interactions. By this set, for
complex cognitive development, technical devices are not simply tools or
extensions of human skills. How to feel safe in a world, a nature not welcoming,
unknown and full of dangers. The answer built by humanity itself is open:
through knowledge. Facing the problem of survival in an inhospitable world, the
hominid became human when he invented a tool. The tool has developed for
centuries and millennia, becoming a sophisticated technological device. The
need arises to understand how Information and Communication Technologies
are part of human development, more precisely, cognitive development. Thus,
showing the importance of current media as allies in the development of the
individual.
319
SISTEMA DE ORGANIZAÇÃO DO CONHECIMENTO
UTILIZADO PELA COMUNIDADE BOOKTUBE:
MAPEAMENTO DOS CONCEITOS
KNOWLEDGE ORGANIZATION SYSTEMS USED BY THE
COMMUNITY BOOKTUBE: MAPPING THE CONCEPTS
Pôster / Poster
SUNDSTRÖM, Admeire da Silva Santos.
Unesp / Marília
A comunidade booktube corresponde a um grupo de pessoas,
usualmente jovens, que compartilham na plataforma YouTube suas experiências
literárias. Além disso, todos os pertencentes a essa comunidade são
colecionadores de livros e, desse modo, apresentam uma linguagem própria e
características únicas no momento de organizar suas estantes. Alguns elementos
são levando em consideração no momento de elaborar os vídeos que serão
disponibilizados na plataforma YouTube, como por exemplo: sugestão dos
seguidores, que são pessoas inscritas nos canais, resenhas e sugestões de leituras
e TAGs, compreendido aqui como o assunto que pode estar em destaque na
internet. Desse modo, a TAG em questão é a Bookshelf Tour, o termo é
utilizado em inglês pelos booktubers brasileiros e a tradução é passeio pela
estante. Esse tipo de vídeo consiste na apresentação das prateiras dos
respectivos booktubers, no qual falam como adquiriram seus livros, qual é o
método utilizado para organização, a importância dos livros para a vida pessoal
e profissional e os critérios para aquisição e possível desbaste. Desse modo, a
justificativa se embasa na quinta premissa de Barité, de que existem diversas
formas de se organizar o conhecimento; e também no princípio do colecionismo
bibliográfico, de que os colecionadores são guiados por questões subjetivas no
momento de adquirir e gerir suas coleções, assim, se questiona: é possível
utilizar a análise do discurso de linha francesa para a construção do mapa
conceitual com o objetivo de identificar o sistema de organização do
conhecimento utilizado por essa comunidade? Devido à complexidade do tema,
e ausência do uso de linguagem documentária nessa comunidade, é que o foco
desta comunicação será no mapeamento dos conceitos utilizado por essa
comunidade. O método consistiu em selecionar 10 canais e uma média de 50
vídeos foram estudados. Os canais escolhidos foram aqueles que possuem maior
número de seguidores. Os vídeos foram assistindo com foco no esquema de
organização e na linguagem utilizada. Os conceitos foram extraídos por meio da
análise discursiva dessa comunidade em torno dos âmbitos de organização, após
320
a extração, foram tabelados dentro do software Diagrams.xon para a construção
do mapa conceitual. Como resultado, salienta-se que a comunidade compartilha
os modos de organização na plataforma Youtube como opção viável também
para seus seguidores; não utiliza software para elaboração da indexação,
classificação e/ou recuperação do conhecimento, pois a representação temática
do livro não é critério prioritário no momento de ordenar as estantes. A
ordenação das prateleiras é centrada no percurso de vida do booktube
colecionador, desse modo, o esquema de categorização é fundamentado pela
ordem de aprendizado. Descritores como editora e coleção podem ser ponto
principal no sistema de organização, bem como, a estrutura física: tamanho, cor
e qualidade do papel.
The booktube community corresponds to a group of people, usually
young people, who shares their literary experiences on Youtube. In addition, the
people belonging to this community are collectors of books and, thus, have a
unique language and characteristics when organizing their bookshelves. Some
elements are taken into consideration when preparing the videos that will be
made public on the YouTube platform, such as: suggestions from followers,
who are people enrolled in the channels, reviews, book suggestions and TAGs,
understood here as the subject that may be featured on the internet. Thus, the
TAG in question is the Bookshelf Tour, the term is used in English by the
Brazilian booktubers and the translation is the bookshelf tour. This type of video
consists of the presentation of the respective bookstubers' recommendations, in
which they talk about how they acquired their books, the method used for
organization, the importance of the books for personal and professional life and
the criteria for acquisition and possible withdrawing. In this way, the
justification is based on the fifth premise of Barite, that there are several ways of
organizing knowledge; and also in the principle of bibliographical collectivism,
that collectors are guided by subjective questions in the moment of acquiring
and managing their collections, thus, it is questioned: if it is possible to use
French line discourse analysis to construct the conceptual map with the
objective to identify the system of knowledge organization used by this
community? Due to the complexity of the theme, and the absence of the use of
documentary language in this community, the focus of this communication will
be on the mapping of the concepts used by this community. The method
consisted of selecting 10 channels and an average of 50 videos were studied.
The channels selected were those with the highest number of followers. The
videos were watched with focus on the organization structure and the language
used. The concepts were extracted through the discursive analysis of this
community around the scopes of organization, after the extraction, were
tabulated within the software Diagrams.xon For the construction of the
conceptual map. As a result, it should be noted that the community shares the
methods of organization on the Youtube platform as a viable option also for its
321
followers; does not use software for the elaboration of indexing, classification
and / or data recovery, since thematic representation of the book is not a priority
criterion when ordering shelves. The ordering of the shelves is centered on the
lifecycle of the collector booktube, thus, the categorization scheme is based on
the order of learning. Descriptors such as publisher and collection can be main
point in the organization system as well as the physical structure: size, color and
quality of the paper.
FAKE NEWS E BIG DATA: O DIRECIONAMENTO DA AÇÃO
HUMANA BASEADA NO PROCESSO DE FIXAÇÃO DE
CRENÇAS
FAKE NEWS AND BIG DATA: THE DIRECTION OF HUMAN
ACTION BASED ON THE BELIEF-SETTING PROCESS
Pôster / Poster
TAVARES, Bárbara Linda.
Unesp / Marília
POLETTO, Leonardo Queiroz Assis Poletto.
Unesp / Marília
GOMES, Ana Paula de Carvalho.
Unesp / Marília
Os dados atualmente gerados por meio das tecnologias informacionais
contemporâneas chega a números exorbitantes, em torno de 2,5 quintilhões de
bytes (2,5.1018) diariamente (HEKIMA, 2016). Diferentes atividades efetuadas
por meio da internet como, por exemplo, as interações de usuários nas redes
sociais, buscas no Google e movimentações financeiras, tornaram-se dados
valiosos que podem ser utilizados para detectar padrões de comportamento, criar
modelos e fazer previsões, especialmente das práticas de consumo dos usuários.
Tais modelos podem gerar informações a respeito dos desejos, hábitos,
convicções ideológicas e, especialmente, crenças dos usuários. Assim, o
objetivo deste trabalho é investigar possíveis impactos das tecnologias
informacionais em padrões habituais da ação humana e nos processos de
aquisição ou abandono de crenças, aqui consideradas como diretamente
relacionadas aos padrões de conduta. Para tanto, inicialmente analisaremos
322
possíveis mudanças nas formas de interações dos usuários decorrentes da
utilização de novas tecnologias de comunicação, em especial das redes sociais
(facebook, whatsApp). Em seguida, investigaremos como a utilização de redes
sociais pode influenciar a constituição e fixação das crenças de seus usuários e
assim ter implicações diretas em seus padrões de conduta (digital e real). A
partir disso, tentaremos compreender, em especial, o fenômeno das Fake News,
como elas podem ser elaboradas para manipular e direcionar a conduta de
usuários de acordo com interesses particulares, quais são os principais perigos e
impactos éticos que as notícias falsas podem acarretar no âmbito da ação
humana. Uma das preocupações subjacentes a este trabalho está relacionada ao
processo de fixação de crenças dos indivíduos e como o uso das tecnologias
digitais pode modificar negativamente as estruturas que compõem tal processo.
The data generated by means of contemporary informational
technologies arrives at exorbitant numbers, around 2.5 quintillions of bytes
(2,5.1018) daily (HEKIMA, 2016). Different activities effected by means of the
internet, such as, for example, the interactions of users in social networks,
Google searches and financial transactions, became valuable data that can be
used to detect patterns of behavior, to create models and make predictions,
especially of the users’ consumption practices. Such models may generate
information on the users’ desires, habits, ideological convitions and, especially,
beliefs. Thus, the goal of this work is to investigate possible impacts of
informational technologies in patterns of habits of human ation and in the
processes of belief acquisition and abandonment, here considered as directly
related to patterns of action. To do so, we will initially analyse possible changes
in the forms of interactions of users incurring from the use of new comunication
technologies, especially social networks (facebook, whatsApp). After that, we
wil investigate how can the use of social networks influence its users’
constitution and fixation of beliefs and thus have direct implications on their
(real and digital) patterns of action. From this, we will attempt to understand,
especially, the phenomenon of Fake News, how they can be elaborated to
manipulate and direct the conduct of users according to particular interests,
which are the main dangers and ethical impacts that fake news may bring about
in the scope of human action. One of the underlying worries to this work is
related to the process of individuals’ fixation of beliefs and how the use of
digital technologies may negatively affect the structures that compose such a
process.
ANÁLISE DO DISCURSO FRANCESA E ORGANIZAÇÃO DA
INFORMAÇÃO E DO CONHECIMENTO : LINGUAGEM,
IDEOLOGIA E SUJEITO
323
FRENCH DISCOURSE ANALYSIS AND ORGANIZATION OF
INFORMATION AND KNOWLEDGE: LANGUAGE, IDEOLOGY
AND SUBJECT
Pôster / Poster
TERRA, Marcos Vinícius Carvalho.
Unesp / Marília
SABBAG, Deise.
USP, Unesp / Marília
O fio condutor desta investigação científica é a dinâmica
interdisciplinar entre a Análise do Discurso Francesa e a Organização da
Informação e do Conhecimento, especialmente no que se refere às questões
ligadas à linguagem, à ideologia e ao sujeito. Salienta-se que as Tecnologias de
Informação e Comunicação permitem que as redes informacionais se
potencializem, a ponto de causar modificações nas relações humanas de um
modo nunca experimentado anteriormente. Surgiram, por conseguinte,
profundas transformações na economia, na política e na cultura, as quais
refletem relações de força e dominação. Consequentemente, muitos assuntos
relacionados à disseminação e ao controle das informações estão circulando nos
principais debates da comunidade global. Nesse cenário, a vertente francesa de
Análise de Discurso, ligada aos teóricos Michel Pêcheux e Michel Foucault,
possibilita a compreensão de como as relações de poder são simbolizadas e
sustentadas no campo informacional. Esse estudo, portanto, investiga como os
estudos franceses sobre discurso estabelecem suas interações interdisciplinares
com a Organização da Informação e do Conhecimento. Mostra, além disso,
como a Teoria do Discurso colabora na interpretação dos processos linguísticos,
ideológicos e políticos que se manifestam nas formas de ordenar, representar e
disseminar a informação e o conhecimento. Assim, os aspectos epistemológicos
que permeiam os elos entre a Teoria do Discurso e a Organização da Informação
e do Conhecimento expõem como a informação e o conhecimento estão
inseridos nas disputas de poder. Os modos de ordenar e representar a
informação estão enlaçados nos embates políticos, os quais se manifestam nos
vínculos que podem e devem ser feitos, que devem representar e fazer circular a
expressão de determinado poder. Logo, requerem gestos de leitura, porquanto as
posições tomadas referentes à informação e ao discurso podem produzir
diferentes efeitos de sentido, conforme o lugar em que o sujeito está inserido.
Desse modo, a informação é afetada por fatores ideológicos e de controle social.
324
The guiding thread of this scientific research is the interdisciplinary
dynamics between the French Discourse Analysis and the Organization of
Information and Knowledge, especially with regard to issues related to
language, ideology and the subject. It should be noted that Information and
Communication Technologies allow information networks to become more
potent, to the point of causing changes in human relations in a way never
experienced before. Consequently, profound changes have arisen in the
economy, politics and culture, which reflect relations of strength and
domination. Consequently, many issues related to the dissemination and control
of information are circulating in the main debates of the global community. In
this scenario, the French strand of discourse analysis, linked to the theorists
Michel Pêcheux and Michel Foucault, provides an understanding of how power
relations are symbolized and sustained in the informational field. This study,
therefore, investigates how the French studies on discourse establish their
interdisciplinary interactions with the Organization of Information and
Knowledge. It also shows how the Discourse Theory contributes to the
interpretation of the linguistic, ideological and political processes that are
manifested in the ways of ordering, representing and disseminating information
and knowledge. Thus the epistemological aspects that permeate the links
between Discourse Theory and the Organization of Information and Knowledge
expose how information and knowledge are embedded in power disputes. The
modes of ordering and representing information are entangled in political
clashes, which are manifested in the bonds that can and must be made, which
must represent and circulate the expression of determined power. Therefore,
they require reading gestures, since the positions taken in relation to information
and discourse can produce different effects of meaning, according to the place in
which the subject is inserted. In this way, information is affected by ideological
factors and social control.
POLÍTICA DE INDEXAÇÃO EM BIBLIOTECAS PÚBLICAS
INDEXATION POLICY IN PUBLIC LIBRARIES
Pôster / Poster
TOLARE, Jéssica Beatriz.
Unesp / Marília
FUJITA, Mariângela Spotti Lopes.
Unesp / Marília
325
Na área de Produção e Organização da Informação na Biblioteconomia,
a indexação de documentos é uma das formas mais importantes no tratamento
da informação em bibliotecas Como uma forma de auxiliar na recuperação da
informação, o objetivo da pesquisa é investigar a existência dos procedimentos
de indexação em bibliotecas públicas. Com isso, foram analisadas a Biblioteca
Municipal de Marília, a Biblioteca Municipal de Araraquara, a Biblioteca
Municipal de Campinas e a Biblioteca Municipal de Belo Horizonte em Minas
Gerais. Para a coleta de dados, foi aplicado um questionário seguido de
observação participante e de Protocolo Verbal para observação do processo de
catalogação e indexação das instituições. Como resultados parciais, constatou-se
que na Biblioteca Municipal de Marília há dificuldades por parte dos
catalogadores/indexadores, pois os que realizam a prática não possuem
formação na área, nem receberam cursos no início da função, tendo apenas a
experiência de anos e o auxílio da bibliotecária-chefe quando necessário. Além
disso, o sistema utilizado é limitado e falho, fazendo com que a informação não
seja recuperada de forma adequada, prejudicando o trabalho dos profissionais e
o próprio usuário quando realiza a busca. Já na Biblioteca Municipal de
Araraquara, os profissionais que realizam o processo de indexação são formados
na área, entretanto, o sistema também é falho, limitando os procedimentos de
indexação. Na Biblioteca Municipal de Campinas foi constatado que apesar de
haver um processamento técnico separado das bibliotecas e especificamente
para esse tipo de serviço, ainda há muito o que compor. A começar pela falta de
um sistema informatizado. E na Biblioteca Municipal de Belo Horizonte o
processo é realizado por bibliotecários formados na área, apesar de a biblioteca
ter recursos e receber verbas, eles não possuem nenhum manual, no
processamento técnico é realizado de forma mais geral, enquanto quem realiza a
indexação de forma mais aprofundada é o bibliotecário de referência. Todas as
instituições não possuem nenhuma política de indexação regulamentada. Sendo
assim, há necessidade de um aprimoramento dos métodos na prática e qualidade
da indexação. Como conclusões parciais, verificou-se nas bibliotecas públicas a
falta de instrução e formação adequada para a atividade de indexação, bem
como a inexistência de manuais de procedimentos e de política de indexação.
In the area of Production and Organization of Information in
Librarianship, document indexing is one of the most important ways to treat
information in libraries. As a way to assist in the retrieval of information, the
objective of the research is to investigate the existence of indexing procedures in
public libraries. Thus, we analyzed the Municipal Library of Marília, the
Municipal Library of Araraquara, the Municipal Library of Campinas and the
State Library of Belo Horizonte. For data collection, a questionnaire followed
and participant observation and Verbal Protocol were used to observe the
process of cataloging and indexing institutions. As partial results, it was found
that the Municipal Library of Marília there are difficulties on the part of
326
catalogers/indexers, for those who perform the practice have no training
experience and the aid the head librarian when needed. In addition, the system
used is limited and flawed, Causing the information not to be recovered in an
adequate way, damaging the work of the professionals and the user himself
when he performs the search. In the Municipal Library of Araraquara, the
professionals that perform the indexing process are formed in the area, however,
the system is also flawed, limiting the indexing procedures. In the Municipal
Library of Campinas, it was found that although there is separate technical
processing of the libraries and specifically for this type of service, there is still
much to compose. Starting with the lack of a computerized system. And in the
State of Library of Belo Horizonte the process is carried out by librarians trained
in the area, although the library has resources and receive funds, they don’t have
any manual, in the technical processing is carried out in a more general way,
while those who perform the indexing of form the sector of reference is more in-
depth. All institutions have no regulated indexing policy. Therefore, there is a
need for an improvement of methods in practice and quality of indexing. As
partial conclusions, public libraries lacked adequate instruction and training for
the indexing activity, as well as the lack of manuals of procedures and indexing
policy.
COLETA AUTOMÁTICA DE ARTIGOS PARA POVOAMENTO
DE REPOSITÓRIOS DIGITAIS UTILIZANDO OAI-PMH
AUTOMATIC COLLECT OF ARTICLES FOR DIGITAL
REPOSITORY INCLUSION USING OAI-PMH
Pôster / Poster
TORINO, Emanuelle.
UTFPR
CLEMENTE, Bruno.
UTFPR
VIDOTTI, Silvana Aparecida Borsetti Gregorio.
Unesp / Marília
Os repositórios digitais constituíram-se ambientes essenciais para a
gestão e visibilidade da produção científica e acadêmica, contudo o povoamento
327
destes ambientes apresenta-se como grande desafio para as instituições. Neste
sentido, a coleta automática desponta como resposta à problemática, na medida
em que possibilita a reutilização dos metadados já disponíveis nas fontes
originais de publicação. Objetivando acelerar o depósito de artigos no
Repositório Institucional da Universidade Tecnológica Federal do Paraná, foi
desenvolvido um processo de coleta de metadados e arquivos texto completo
dos artigos, por meio do protocolo Open Archive Initiative – Protocol for
Metadata Harvesting, inicialmente para a utilização em portais de periódicos e
na base Scientific Electronic Library Online. A coleta é realizada a partir da
definição da URL da fonte de dados e utiliza como critério a afiliação, neste
caso, as variáveis do nome ‘Universidade Tecnológica Federal do Paraná’,
previamente definidas. Além disso, é realizada a compatibilização do
vocabulário para atender ao perfil de aplicação utilizado pelo Repositório
Institucional da Universidade Tecnológica Federal do Paraná, etapa inserida ao
processo. Os dados coletados são armazenados individualmente em pastas
numeradas sequencialmente e contêm arquivos necessários à importação no
Dspace, a saber: collections, arquivo em texto puro que contém a identificação
da coleção na qual o item deve ser apresentado; contents, arquivo em texto puro
que identifica o nome do arquivo vinculado ao item; dublin_core, arquivo XML
contendo os metadados do registro; modification, arquivo em texto puro que
registra a última data de alteração; além desses, o arquivo contendo o texto
completo do artigo. Os dados coletados são exibidos por meio de uma interface
desenvolvida para que os registros recebam tratamento e padronização da
descrição. A importação no DSpace é realizada por linha de comando e após
executada gera um arquivo mapfile que permite reverter a ação, caso apresente
erro. A partir da coleta automática tornou-se possível identificar como
oportunidade a agilidade do reuso dos metadados, se comparado à proposta de
autoarquivamento, premissa inicial da via verde, por outro lado, como
fragilidade, verificou-se que o preenchimento dos metadados nem sempre é
realizado de forma completa e adequada, tornando necessário o tratamento e
padronização antes da importação e disponibilização no repositório, ademais,
muitos periódicos, embora disponíveis em acesso livre, não possuem metadado
que exiba a licença de direito autoral, o que torna necessária a verificação da
permissão antes da importação dos registros. Diante do exposto, verifica-se que
a intervenção humana ainda é necessária ao tratamento dos dados,
impossibilitando que os artigos publicados em periódicos sejam depositados
automaticamente em repositórios digitais.
The digital repositories constituted essential ambiances for the
management and visibility of scientific and academic production, however the
settlement of those ambiances, presents as a challenge for institutions. In this
sense, the automatic gather rises as the response to the problematic, insofar as it
makes possible a reuse of metadata already available on the original sources of
328
publication. Aiming to speed the articles at the Universidade Tecnológica
Federal do Paraná, institutional repository, a process of gathering metadata and
archives of complete articles by means of the protocol Open Archive Initiative-
Protocol for metadata Harvesting initially used on newspapers portals and base
Scientific Electronic Library online. The gather is done from the definition URL
of the data source and uses as criteria the affiliation, in this case, the variables of
the name ‘Universidade Tecnológica Federal do Paraná’; previously defined.
Besides, is realized the vocabulary´s compatibilization to comply with the
application profile used by the Institutional Repository of Universidade
Tecnológica Federal do Paraná, step inserted on the process. The data collected
are stored individually on files sequentially numbered and contains archives
necessary to import on Dspace, as known: collections, pure textual archives that
identifies the archive name connected to the item: dublin_core, XML archive
containing the registered metadata; modification, pure textual archive that
registers the last alteration date, besides those, the archive containing the
complete article text. The gathered data are exhibit by means of an interface
developed so the records receive treatment and description standardization. The
import on Dspace, is realized by a command line and after executed, generates
an archive mapfile that allow reversing action, if an error occurs. From the
automatic gather it becomes possible to identify as an opportunity the reuse of
metadata, if compared to the proposition of self-archiving Via Verde´s initial
premise, on the other hand, as fragility, was verified that metadata fill, not
always are done completely or properly, making necessary the treatment and
standardization before importation and availability at the repository, besides
many newspapers although available freely, do not have metadata that exhibits
the copyright license, which makes necessary the permission check before
importation of records. In face of facts, human intervention still necessary to
data treatment, making it impossible that newspaper published articles are
automatically deposit on digital repositories.
TECNOLOGIAS PARA OTIMIZAÇÃO DE BUSCA NA WEB E
SUAS IMPLICAÇÕES NO CONTEXTO DA COMUNICAÇÃO
CIENTÍFICA
TECHNOLOGIES FOR WEB SEARCH OPTIMIZATION AND
THEIR IMPLICATIONS FOR SCHOLARLY
COMMUNICATION
Pôster / Poster
TREVISAN, Gustavo Lunardelli.
Unesp / Marília
329
CURTY, Renata Gonçalves.
UEL
ALVES, Rosemari Pereira dos Santos.
Unesp / Marília
Os mecanismos de busca constituem-se como um dos principais pontos
de partida para acesso à informação disponível na web. Estudos apontam que a
distribuição de cliques em páginas de resultados de busca é desigual, visto que,
após a pesquisa, 80% dos usuários não chegam a visitar a segunda página
constante na lista de resultados, e que em buscas orgânicas, quase 60% dos
cliques ocorrem apenas nos três primeiros resultados listados. Este
comportamento se reproduz tanto nos buscadores da web comercial, como
naqueles dedicados a indexar e recuperar apenas conteúdos científicos. No
contexto da web comercial, as organizações buscam melhoras no
posicionamento dos resultados de busca por meio de técnicas como o Search
Engine Optimization (SEO). Já no âmbito da comunicação científica, os autores,
editores e editoras contam com recursos tecnológicos como o Academic Search
Engine Optimization (ASEO) para promover a disseminação e o maior alcance
de suas publicações científicas, de modo que estas estejam mais visíveis e
possam ser, portanto, acessadas e potencialmente utilizadas e citadas. Em linhas
gerais, o ASEO desenvolve e aplica elementos que potencializam a indexação, a
captura, a encontrabilidade de produções científicas na web, também
posicionando melhor estas produções nos resultados de pesquisas. Nesta
perspectiva, o presente estudo apresenta um panorama de alternativas
tecnológicas voltadas para a otimização da busca de conteúdos relacionados à
produção científica. Discorre sobre o uso de ferramentas e acerca das técnicas
aplicadas a promoção de visibilidade da produção científica, além de fornecer
uma descrição comparativa entre as funcionalidades e aplicações das
tecnologias, e relatar iniciativas de implementação vigentes. Reflete e pondera
sobre a aplicação dessas tecnologias sob o viés do caráter social do
conhecimento em ciência e tecnologia, principalmente no que tange ao ethos
científico. Desse modo, espera-se contribuir não apenas conceitualmente com a
apresentação de tecnologias ainda pouco exploradas no âmbito da Ciência da
Informação, mas sobretudo sobre discussão de algumas questões práticas e
éticas que as cercam.
Search engines are one of the main starting points for people to
access the information available on the web. Studies show that the distribution
330
of clicks on search results pages is uneven, since 80% of users do not visit the
second page in the results list, and that in organic searches, almost 60% of clicks
occur only in the three first results listed. This behavior is reproduced both in
commercial search engines and in those dedicated to indexing and retrieving
only scientific content. In the context of the commercial web, companies look
for improvements in the positioning of search results through techniques such as
the Search Engine Optimization (SEO). In the context of scientific
communication, authors, editors and publishers also have technological
resources available such as the Academic Search Engine Optimization (ASEO)
in order to promote the dissemination and wider reach of their scientific
publications, so that they are more visible and, therefore, can be accessed,
potentially used and cited. In short, ASEO develops and promotes through a
combination of elements better indexing, crawling, and findability of scientific
outputs in the web, also improving their ranking in search results pages. Along
these lines, this study presents an overview of different technological
alternatives aimed at optimizing the search for scientific contents in the web. It
discusses the use of tools and techniques applied to promote the visibility of
scientific outputs, while providing a comparative description of their
functionalities and applications, along with the presentation of some current
implementation initiatives. It reflects and ponders on the application of such
technologies through the lens of the social aspect of scientific and technological
knowledge, especially in what concerns the scientific ethos. In this way, we aim
at contributing not only conceptually by presenting technologies which are yet
little explored in the scope of Information Science, but especially by discussing
some practical and ethical issues that surround them.
CIÊNCIA COGNITIVA: UMA ANÁLISE DO ESTATUTO
CIENTÍFICO A PARTIR DA PERSPECTIVA DE THOMAS
KUHN
COGNITIVE SCIENCE: AN ANALYSIS OF SCIENTIFIC
STATUS FROM THE PERSPECTIVE OF THOMAS KUHN
Pôster / Poster
VALENTE, Alan Rafael.
Unesp / Marília
ALVES, Marcos Antônio.
Unesp / Marília
331
Neste trabalho, desenvolvemos uma análise do estatuto científico da
ciência cognitiva a partir da perspectiva epistemológica de Thomas Kuhn. A
ciência cognitiva, segundo Howard Gardner, pode ser definida como um esforço
contemporâneo, com fundamentação empírica, para responder questões de longa
data – ligadas à natureza do conhecimento, seus componentes, suas origens, seu
desenvolvimento e seu emprego. Nesta perspectiva, adota-se como princípio
metodológico a concepção de que máquinas como computadores eletrônicos
servem como modelo da mente e são fundamentais para o seu entendimento.
Durante os anos entre 1946 e 1953 ocorreram as dez conferências Macy, que
contaram com a presença de pesquisadores como Arturo Rosenblueth, Norbert
Wiener, Julian Bigelow, McCulloch e Walter Pitts. Ainda com o nome de
cibernética, este movimento histórico e intelectual, neste primeiro momento,
buscava estabelecer uma ciência física da mente, centrada em uma nova
concepção de máquina fundada a partir de uma teoria lógico-matemático de
processamento de informação. Em meados da década de 1950 os neurocientistas
estavam começando a registrar impulsos de neurônios individuais do sistema
nervoso. Neste momento estavam sendo examinadas ideias de programas
capazes de reconhecer padrões e comportamentos em termos de ações, feedback
e reajustes de ações. No final de 1969 já era possível pensar em uma abordagem
de ciência cognitiva como um todo. Com o passar do tempo, programas, cursos,
boletins informativos estavam espalhados por todo o mundo, o que parece dar a
impressão da consolidação de uma comunidade científica e um paradigma
dominante na ciência cognitiva. A atividade científica, segundo Kuhn, está
intimamente relacionada à noção de paradigma. Um paradigma estabelece e
norteia a atividade de uma comunidade científica. Ele é constituído, dentre
outras coisas, por teorias empiricamente testáveis, métodos de pesquisa,
experimentos, formas de procedimentos, conjuntos de leis ou princípios
metodológicos. Indica, ainda, os problemas a serem desenvolvidos pela
comunidade científica, determinando uma agenda científica. Quando há um
paradigma dominante em uma área de pesquisa, ela se encontra em um estágio
de ciência normal. O paradigma pode apresentar, ao longo do tempo, anomalias
sérias, o que pode resultar em uma “crise” científica. Ela se configura como um
período de lutas paradigmáticas, fundamental para o progresso na ciência. Neste
trabalho, buscamos investigar o estatuto científico da ciência cognitiva a partir
da abordagem kuhniana. Investigamos, inicialmente, se a ciência cognitiva já
começa como uma ciência normal ou se começa como pré-ciência e, neste caso,
se em algum momento pode ter sido considerada uma ciência normal.
In this work, we develop an analysis of the scientific status of cognitive
science from the epistemological perspective of Thomas Kuhn. Cognitive
science, according to Howard Gardner, can be defined as a contemporary effort,
with empirical reasoning, to answer long-standing questions – linked to the
332
nature of knowledge, its components, origins, development, and employment.
In this perspective, it is adopted as methodological principle the conception that
machines like electronic computers serve as a model of the mind and are
fundamental for its understanding. During the years between 1946 and 1953
there were ten Macy Conferences, which counted with the presence of
researchers like Arturo Rosenblueth, Norbert Wiener, Julian Bigelow,
McCulloch and Walter Pitts. Still in the name of cybernetics, this historical and
intellectual movement, in this first moment, sought to establish a physical
science of the mind, centered in a new conception of machine based on a
logical-mathematical theory of information processing. By the mid-1950s
neuroscientists were beginning to register impulses from individual neurons of
the nervous system. At the moment, ideas were being examined for programs
that could recognize patterns and behaviors in terms of actions, feedback and
readjustments of actions. By the end of 1969 it was possible to think of an
approach to cognitive science as a whole. Over time, programs, courses,
newsletters were scattered around the world, which seems to give the
impression of the consolidation of a scientific community and a dominant
paradigm in cognitive science. Scientific activity, according to Kuhn, is closely
related to the notion of paradigm. A paradigm establishes and guides the activity
of a scientific community. It consists, among other things, of empirically
testable theories, methods of research, experiments, forms of procedures, sets of
laws or methodological principles. It also indicates the problems to be
developed by the scientific community, determining a scientific agenda. When
there is a dominant paradigm in a research area, it is at a normal science stage.
The paradigm may present, over time, serious anomalies, which can result in a
scientific "crisis". It is configured as a period of paradigmatic struggles,
fundamental to progress in science. In this work, we seek to investigate the
scientific status of cognitive science from the kuhnian approach. We
investigated whether cognitive science already begins as a normal science or if
it begins as pre-science, and in this case, if at some point it may have been
considered a normal science.
CONCEITO DE CONSTRUÇÃO SOCIAL DA REALIDADE NO
FACEBOOK: IMPACTOS DAS NOTÍCIAS FALSAS NA
OPINIÃO PÚBLICA
CONCEPT OF SOCIAL CONSTRUCTION OF REALITY ON
FACEBOOK: IMPACTS OF FAKE NEWS IN THE PUBLIC
OPINION
Comunicação Oral / Oral Communication
333
VASCON, Luis Fernando Castro.
Unesp / Marília
SOUZA, Luis Antonio Francisco.
Unesp / Marília
O conceito de globalização vem sendo amplamente discutido entre os
teóricos das humanidades, principalmente após a década de 1980. A
globalização na sociedade contemporânea produziu efeitos maiores do que
apenas financeiros ou geográficos, as implicações estão engendradas no âmago
das relações sociais. Neste aspecto, umas das consequências da sociedade
globalizada é o avanço de um corpo social em rede, que potencializa as opiniões
entre os indivíduos, transpassando as redes de sociabilidade local e adentrando
em um patamar global em grande medida por conta da Web. As pessoas
ganharam e ampliaram suas vozes para se expressarem para qualquer lugar do
mundo. Portanto, compreender a articulação social entre o virtual e o real se faz
cada vez mais necessário em uma sociedade caracterizada pela expressão de
opinião livre e aberta, ainda mais se levarmos em consideração o avanço da
utilização da internet. Atualmente diversos estudos se debruçam a compreender
o campo da virtualidade a partir das ciências sociais. A relação multidisciplinar
e colaborativa entre as áreas tecnológicas (computacional) e das ciências
humanas se tornou tão intrínseca que foi criada uma denominação especifica
desta confluência, terminologia que ficou conhecida como Humanidades
Digitais. Deste modo, o objetivo do estudo foi compreender como a construção
social da realidade (conceito cunhado por Berger e Luckmann) no campo virtual
impacta na opinião pública, além de entender qual a relação das notícias falsas
como processo legitimador da verdade. Para desenvolver esta pesquisa,
realizou-se análises em páginas da rede social Facebook, visando verificar a
importância de se estudar as consequências empíricas da realidade cotidiana em
relação aos discursos produzidos no ciberespaço. Ao termino deste trabalho,
procuramos compreender o funcionamento da interação entre realidade física e
virtual com base em páginas especificas da rede social supracitada. Após
realizadas as análises de dados e dos discursos na rede, foram estruturadas as
bases do conceito de construção social da realidade aplicados ao campo virtual,
e a partir desta teoria, verificou-se como as notícias falsas (Fake News)
impactam no processo de legitimação das posições dos indivíduos. Portanto, a
proposta de compreender as notícias falsas na rede social Facebook a partir dos
conceitos de construção social da realidade foi satisfatória, sendo assim
concebível que a metodologia aplicada deste conceito ao campo virtual pode
materializar a compreensão de diversas temáticas.
334
The concept of globalization has been widely discussed among the
theorists of the humanities, especially after the 1980s. Globalization in
contemporary society has produced more than just financial or geographical
effects; the implications are engendered at the heart of social relations. In this
respect, one of the consequences of a globalized society is the advancement of a
networked social body, which enhances opinions among individuals,
transcending local sociability networks and reaching a global level in large part
through the Web. People gained and broadened their voices to express
themselves to anywhere in the world. Therefore, understanding the social
articulation between the virtual and the real becomes more and more necessary
in a society characterized by the expression of free and open opinion, even more
if we take into account the advance of the use of the Internet. Currently, several
studies are focused on understanding the field of virtuality from the social
sciences. The multidisciplinary and collaborative relationship between the
technological (computational) and human sciences areas became so intrinsic that
a specific denomination of this confluence was created, terminology that
became known as Digital Humanities. In this way, the goal of the study was to
understand how the social construction of reality (concept coined by Berger and
Luckmann) in the virtual field impacts on the public opinion, besides
understanding what is the relation of false news as a process legitimating the
truth. In order to develop this research, we conducted analyzes on pages of the
social network Facebook, in order to verify the importance of studying the
empirical consequences of daily reality in relation to the discourses produced in
cyberspace. At the conclusion of this work, we try to understand the operation
of the interaction between physical and virtual reality based on specific pages of
the social network mentioned above. After the analysis of data and discourses in
the network, the bases of the concept of social construction of reality applied to
the virtual field were structured, and from this theory, it was verified how the
false news (Fake News) impact in the process of legitimating positions.
Therefore, the proposal to understand the false news on the social network
Facebook from the concepts of social construction of reality was satisfactory, so
it is conceivable that the methodology applied from this concept to the virtual
field can materialize the understanding of various topics.
A INFLUÊNCIA DO BIG DATA NA REPRESENTAÇÃO DE
ASSUNTO EM AMBIENTES DIGITAIS
THE INFLUENCE OF BIG DATA IN THE INFORMATION
REPRESENTATION PROCESSES IN DIGITAL
ENVIRONMENTS
Comunicação Oral / Oral Communication
335
VIANNA, Joyce Mirella dos Anjos.
UFSCar
DAL’EVEDOVE, Paula Regina.
UFSCar
Discute sobre a explosão informacional gerada pelas novas tecnologias
de informação e comunicação, a web e o aumento vertiginoso de registros não
estruturados que potencializaram o surgimento de novos paradigmas e
tecnologias, como o Big Data, sob uma perspectiva crítica e suas implicações na
Ciência da Informação. O Big Data é um corte horizontal do universo digital e
pode incluir dados transacionais, dados armazenados, metadados e outros dados
que residem em arquivos grandes, porém além do volume de dados o real valor
do Big Data está no insight que ele produz quando analisado. Além de alto
volume de dados não estruturados, o Big Data apresenta outras características
importantes como variedade, velocidade, veracidade e valor. Diante desta nova
realidade, objetiva-se discutir o conceito de Big Data na perspectiva da Ciência
da Informação, as tecnologias disponíveis para utilizá-lo como as envolvidas
com analytics ou analítica tendo Hadoop e MapReduce como as principais, e o
impacto deste aumento vertiginoso de dados em técnicas tradicionais como
análise de assunto e análise documentária com fins de indexação, classificação e
recuperação. Esta visão analítica se configura como um sistema de análise e
categorização massiva de dados que são processados automaticamente. Esta
infraestrutura oferece repostas nas tomadas de decisões que impactam o estado
de conhecimento da sociedade, à medida que estes resultados oferecem
perspectivas até então desconhecidas. O Knowledge Discovery in Databases
(KDD) é uma das iniciativas pioneiras neste processo, pois recorria a análise de
dados para a descoberta de um novo tipo de conhecimento. O estudo
caracteriza-se como revisão de literatura, tendo como metodologia a pesquisa
exploratória pautada na pesquisa bibliográfica. Os resultados esperados se
aplicam na extensão das discussões e pesquisas sobre as implicações e impactos
no processo de representação temática da informação decorrente do crescimento
exponencial de dados não estruturados em tempos de Big Data. Conclui-se que
o impacto destas tecnologias tem realçado as discussões sobre os processos de
análise de grandes volumes de dados que influenciam os modelos de
representação da informação no ambiente digital.
It discusses the informational explosion generated by the new
information and communication technologies, the web and the vertiginous
increase of unstructured records that have potentiated the emergence of new
paradigms and technologies, such as Big Data, under a critical perspective and
336
its implications in Information Science. Big Data is a horizontal cut of the
digital universe and can include transactional data, stored data, metadata, and
other data residing in large files, but beyond the data volume the actual value of
Big Data lies in the insight it produces when analyzed. In addition to high
volume unstructured data, Big Data presents other important features such as
variety, speed, accuracy and value. In view of this new reality, the objective is
to discuss the concept of Big Data in the perspective of Information Science, the
technologies available to use it as those involved with analytics or analytics
having Hadoop and MapReduce as the main ones, and the impact of this
vertiginous increase of data in traditional techniques such as subject analysis
and documentary analysis for indexing, classification and retrieval purposes.
This analytical view sets itself up as a system of mass analysis and
categorization of data that is processed automatically. This infrastructure offers
answers in decision-making that impact the state of knowledge of society, as
these results offer hitherto unknown perspectives. Knowledge Discovery in
Databases (KDD) is one of the pioneering initiatives in this process, as it used
data analysis to discover a new type of knowledge. The study is characterized as
literature review, having as exploratory research methodology based on the
bibliographic research. The expected results apply to the extension of the
discussions and research on the implications and impacts on the process of
thematic representation of the information due to the exponential growth of
unstructured data in times of Big Data. It is concluded that the impact of these
technologies has highlighted the discussions about the processes of analysis of
large volumes of data that influence the models of information representation in
the digital environment.
INDEXAÇÃO SOCIAL E AS NUANCES DA REPRESENTAÇÃO
TEMÁTICA
SOCIAL INDEXATION AND NUANCES OF THEMATIC
REPRESENTATION
Pôster / Poster
VIANNA, Joyce Mirella dos Anjos.
UFSCar
DAL’EVEDOVE, Paula Regina.
UFSCar
337
Discute sobre a indexação social a partir do tageamento coletivo na
perspectiva da Ciência da Informação, ou seja, uma indexação orientada pelo
usuário na Web, a partir da reciproca inserção de termos que auxilie no processo
de recuperação da informação e como esta perspectiva direciona as novas
percepções da representação temática da informação. A partir dos métodos de
análise, tradução e representação de temas do conhecimento humano é possível
elencar termos representativos que projetam sistematicamente as informações
em determinados domínios do conhecimento, procedimentos característicos da
indexação manual, que paulatinamente foram importados por sistemas
inteligentes automatizados de gerenciamento de informações. A Representação
temática volta-se para o estudo dos assuntos que são representados por
determinados termos, nisto consiste em apontar os eixos de domínio do
conhecimento humano na perspectiva vocabular dos assuntos contidos nos
recursos informacionais disponíveis em qualquer ambiente ou suporte. O
objetivo geral deste trabalho pauta-se na discussão do uso da indexação social
como forma de representação temática com o uso de novas tecnologias.
Apresenta alguns fenômenos que surgiram no ambiente virtual, como iniciativas
de tageamento coletivo e que proporcionaram aos usuários ampliar o uso dos
vocabulários que outrora parecia inflexível e imutável. Apresenta o olhar da
Ciência da Informação sobre o uso de novas tecnologias de informação e
comunicação no processo de representação temática. Neste sentido amplia sobre
as considerações pragmáticas do uso da linguagem e como esse realce acontece
por meio de tags. A metodologia utilizada fundamenta-se na revisão de
literatura e pesquisa bibliográfica, de caráter exploratório. Os resultados
esperados se aplicam na extensão das discussões e pesquisa sobre a influência
social e linguística no processo de indexação mediados por novas tecnologias.
Conclui que a participação coletiva dos usuários em ambiente informacionais
projeta um novo modelo de relacionamento no qual determinados limites
vocabulares não conseguem atender as transformações da linguagem e das
tecnologias, necessitando de estudos que possam ampliar estas discussões para
entender estas constantes mudanças no universo informacional.
It discusses social indexing from the collective tageamento in the
perspective of Information Science, that is, a user-oriented indexing on the Web,
from the reciprocal insertion of terms that aid in the process of information
retrieval and how this perspective directs the new perceptions of thematic
representation of information. From the methods of analysis, translation and
representation of human knowledge themes it is possible to list representative
terms that systematically project information in certain domains of knowledge,
procedures characteristic of manual indexing, which were gradually imported by
intelligent automated information management systems. The Thematic
Representation turns to the study of the subjects that are represented by certain
terms, in this it consists in pointing the axes of domain of human knowledge in
338
the vocabulary perspective of the subjects contained in the informational
resources available in any environment or support. The general objective of this
paper is to discuss the use of social indexing as a form of thematic
representation with the use of new technologies. It presents some phenomena
that have emerged in the virtual environment, such as collective tagging
initiatives and that have provided users with an expanded use of vocabularies
that once seemed inflexible and unchanging. It presents the Information Science
look at the use of new information and communication technologies in the
thematic representation process. In this sense it broadens on the pragmatic
considerations of the use of language and how this enhancement happens
through tags. The methodology used is based on literature review and
bibliographic research, of an exploratory nature. The expected results apply to
the extension of the discussions and research on social and linguistic influence
in the process of indexation mediated by new technologies. It concludes that the
collective participation of the users in informational environments projects a
new relationship model in which certain vocabulary limits can not attend the
transformations of language and technologies, needing studies that can broaden
these discussions to understand these constant changes in the informational
universe.
O FENÔMENO GLASS CEILING E O ACESSO À
INFORMAÇÃO: ESTUDO SOBRE AS BARREIRAS INVISÍVEIS
IMPOSTAS ÀS MULHERES NO TRABALHO
GLASS CEILING AND ACCESS TO INFORMATION: STUDY
ON THE INVISIBLE BARRIERS IMPOSED ON WOMEN AT
WORK
Pôster / Poster
WOIDA, Luana Maia.
FATEC / Garça
OLIVEIRA, Beatriz Benedito.
FATEC / Garça
O artigo discute essencialmente sobre a metáfora Glass Ceiling ou Teto
de Vidro, segundo o qual, permite a construção de barreiras invisíveis que
dificultam o acesso das mulheres aos cargos de maiores salários e
responsabilidades, ocasionando assim, a segregação hierárquica (ou vertical na
339
estrutura organizacional). Ao investigar a respeito do teto de vidro, percebe-se
que são várias as condições que levam a sua existência, inclusive a falta de
acesso à informação. O resultado do não acesso à informação produz decisões
mal alicerçadas e desempenhos desastrosos. Quanto à formação e aos níveis
educacionais, sabe-se não se tratar mais como uma das fragilidades no que tange
à capacidade de assumir e desempenhar o trabalho, uma vez que as mulheres se
tornaram maioria nas universidades. Números confirmados entre aqueles que se
graduam. Sabe-se que a cultura machista ainda é encontrada dentro das
empresas, sendo uma barreira já conhecida e parte da agenda de enfrentamento
das mulheres trabalhadoras. Não sendo exatamente uma novidade. Contudo,
existem mais fatores além desses, que não tão claramente percebidos e que
podem atuar na dificuldade de ascensão da mulher na hierarquia das empresas.
Neste sentido, a investigação objetiva-se a responder a seguinte pergunta: o teto
de vidro é um fenômeno associado à ausência de acesso à informação pelas
mulheres? Sendo assim, o fulcro consiste em indicar o que determina a
existência deste fenômeno dentro dos espaços corporativos, destacando a falta
de acesso à informação como um dos elementos que produzem um contexto de
dificuldades para a atuação da mulher trabalhadora. Desta forma, esta pesquisa
traz como finalidade a conscientização das empresas de que os mecanismos de
exclusão, que estão inseridos dentro e fora do contexto organizacional
prejudicam o crescimento profissional das mulheres e, consequentemente, um
melhor desempenho. Além disso, o estudo também possibilita a contribuição de
novas hipóteses para o conhecimento científico e literatura nacional,
principalmente, com relação as pesquisas que seguem como fulcro a
investigação de mulheres nos espaços executivos e sua participação direta no
fluxo de informação. Para a execução desta pesquisa exploratória, adotou-se
como procedimentos metodológicos, a aplicação de questionários junto às
trabalhadoras de empresas, às quais foram submetidas à questionamentos sobre
o acesso à informação, porém de maneira comparativa à percepção que elas
detêm sobre o acesso realizado pelos trabalhadores homens. Assim, as
informações coletadas sugerem uma relação entre o acesso à informação e as
barreiras invisíveis a que estão submetidas as mulheres.
This paper discusses the Glass Ceiling metaphor, according to which, it
allows the construction of invisible barriers that hinder the access of the women
to positions with higher salaries and responsibilities, thus, causing hierarchical
or vertical segregation in the organizational structure. When investigating about
the glass ceiling, it is noticed that there are several conditions that lead to this
fact, such as lack of accessing information. The non-access to information
produces poorly-based decisions and disastrous performances. About training
and educational levels, it is known that it is no longer treated as one of the
weaknesses in the ability to take over and perform the job, since women have
become a majority in universities in Brazil. It is known that the machismo
340
culture is still found within the companies, being a well-known barrier.
However, there are more factors besides these, which are not so clearly
perceived and that can act in the difficulty of ascending women in the
companies' hierarchy. In this sense, this research aimed to answer the following
question: could be glass ceiling a phenomenon associated with the lack of
access to information? Thus, the fulcrum consists of indicating what determines
the existence of this phenomenon within corporate spaces, highlighting the lack
of access to information as one of the factors that produce difficulties for
working women. Furthermore, this research aims to raise the awareness of
companies that the exclusion and sexist biases, which are inside and outside of
organizational context, hinder the professional growth of women and,
consequently, a better performance of the organizations. In addition, this
analysis also makes possible to contribute with new hypotheses to scientific
knowledge, especially in relation to research about women in executive spaces
and their direct participation in the flow of information. In order to carry out this
exploratory research were used questionnaires to female employees with
questions about access to information. They could see what they think about it
in relation to their partners, i.e. male workers. Thus, the data collected suggests
a relationship between access to information and the invisible barriers to which
women are subjected in organizations.
ASSIMETRIAS DE GÊNERO NA CIÊNCIA DA INFORMAÇÃO:
REFLEXÕES ENTRE BIOPODER E A PRESENÇA FEMININA
NA ACADEMIA BRASILEIRA
ASYMMETRIES OF GENDER IN INFORMATION SCIENCE:
OBSERVATIONS BETWEEN BIOPOWER AND FEMININE
PRESENCE IN BRAZILIAN ACADEMY
Pôster / Poster
XAVIER, Ana Laura Silva.
Unesp / Marília
SABBAG, Deise Maria Antonio.
USP
O processo histórico de inserção e ascensão de mulheres nas Ciências
apresenta um lastro de desigualdades, restrições, dificuldades de legitimação e
articulações discursivas. No âmbito da Ciência da Informação brasileira a
341
presença feminina foi marcadamente importante para os aspectos de
engendramento e constituição da área no cenário educacional, político e
científico, mas assim como em outros domínios da ciência, o seu papel
expressivo de atuação encontra-se embargado. Partindo da compreensão que o
biopoder controla o feminino não apenas como técnica de controle do corpo e da
sexualidade, mas nas práticas discursivas. Buscamos entender o que
denominamos de embargo do papel da mulher na Ciência da Informação no
Brasil, especificamente com um recorte na área de Organização e Produção da
Informação. Este trabalho desenvolve um estudo prolegômeno para investigar a
presença da autoria de mulheres buscando seu gesto bibliográfico nas
disciplinas voltadas à Organização e Produção da Informação. O corpus de
análise da pesquisa comporta os vinte e três programas de pós-graduação em
Ciência da Informação do Brasil reconhecidos pela Comissão de
Aperfeiçoamento de Pessoal do Nível Superior (CAPES), considerando os seus
diferentes níveis: mestrado acadêmico, doutorado acadêmico e mestrado
profissional. A abordagem quali-quantitativa, descritiva e exploratória permite
questionar como as práticas científicas são complexas e permeadas de uma falsa
neutralidade de seus sujeitos e detentores do saber-poder, sendo a ciência algo
construído hierarquicamente e de forma assimétrica no que condiz às questões
de gênero. Ao se ater a perspectiva de que o gênero influencia nas construções
sociais, culturais, políticas e econômicas torna-se fundamental agregar esta
discussão à esfera da Organização e Produção da Informação e do
Conhecimento, visto que ambas possuem relações diretas. Ainda são poucos os
estudos na área de Ciência da Informação que tratam da temática de gênero. Os
resultados obtidos são relacionados com o conceito de biopoder e com as teorias
de segregação horizontal e vertical como meio de evidenciar a difícil
incorporação da mulher no ambiente científico.
The historic process of insertion and rise of women in Sciences
presents one coverage of inequality, restrictions and difficulties of legitimation
and discursive articulations. In brazilian Information Science the feminine
presence has markedly important for the aspects of spawning and constitution of
area in the educacional, political, economical and scientific scenario, but as in
other fields of science, its expressive role of action is seized. Starting from
understand that biopower controls the feminine not only as a technique of body
control and sexuality, but in discursive practices. We seek for what we call the
embargo of the role of women in brazilian’s Information Science specifically
with a cut in the area of Organization and Production of Information. This work
develops a prolegomena study to investigate the presence of the authorship of
women seeking their bibliographic gesture in the disciplines focused on the
Organization and Production of Information. The corpus of analysis of the
research includes the twenty-three post-graduate programs in Information
Science of Brazil recognized by the Comissão de Aperfeiçoamento de Pessoal
342
do Nível Superior (CAPES) considering its different levels: academic masters,
academic doctorates and professional masters. The qualitative-quantitative,
descriptive and exploratory approach allows us to question how scientific
practices are complex and permeated by a false neutrality of their subjects and
holders of knowledge-power, and science is constructed hierarchically and
asymmetrically in terms of gender issues. By holding the perspective that
gender influences social, cultural, political, and economic constructions, it
becomes fundamental to add this discussion to the sphere of the Organization
and Production of Information and Knowledge, since both have direct relations.
There are still few studies in the area of Information Science that deal with
gender issues. The results obtained are related to the concept of biopower and to
theories of horizontal and vertical segregation as a means to evidence the
difficult incorporation of women into the scientific environment.
O PARADIGMA FÍSICO, COGNITIVO E SOCIAL E A
RELAÇÃO COM A ANÁLISE DE DISCURSO: NOVOS TRAÇOS
EPISTEMOLÓGICOS NA CIÊNCIA DA INFORMAÇÃO
THE PHYSICAL, COGNITIVE AND SOCIAL PARADIGM AND
THE RELATIONSHIP WITH THE DISCUSSION ANALYSIS:
NEW EPISTEMOLOGICAL TRACES IN THE SCIENCE OF
INFORMATION
Pôster / Poster
XAVIER, Ana Laura Silva.
Unesp / Marília
LIMA, Larissa Mello.
Unesp / Marília
CAPRIOLI, Mariana Silva.
Unesp / Marília
MORAES, João Batista Ernesto. Unesp / Marília
343
As análises discursivas realizadas nos periódicos Ciência da
Informação e Perspectivas em Ciência da Informação (antiga Revista da Escola
de Biblioteconomia da UFMG) nas décadas de 1970, 1980 e 1990 permitiram a
visualização de paradigmas científicos existentes na área de Ciência da
Informação brasileira. Em torno das definições ao longo das décadas foi
verificado que a epistemologia da área gira em torno de sua
interdisciplinaridade. Neste sentido, tem-se como objetivo geral relacionar as
definições encontradas para o termo “Ciência da Informação” com os
paradigmas Físico, Cognitivo e Social. Além disso, busca-se compreender como
tais paradigmas influenciam as práticas discursivas veiculadas atualmente na
área. Justifica-se que os estudos epistemológicos são fundamentais para se
compreender os campos de atuação em Ciência da Informação principalmente
no contexto brasileiro. Entende-se que ao atrelar a existência destes paradigmas
epistemológicos às análises, enrique ainda mais a estruturação do percurso
discursivo da área em seus momentos inaugurais. Sabe-se que a adoção de
modelos e padrões são parte da evolução e consolidação científica, mas que
recaem frequentemente na noção de interdiscurso, de efeito de sentido entre
interlocutores e de memória discursiva. Ao compreender um enunciado, o
locutor cumpre com leis que regulamentam a tomada da palavra na coletividade
linguística a que pertence. Tem-se esta reflexão como qualitativa, documental,
exploratória e teórica com o emprego de conceitos derivados da Análise de
Discurso de matriz francesa. Torna-se importante ressaltar que não existe um
consenso quanto ao estatuto histórico-conceitual da Análise do Discurso, pois
ela é ponto de partida para correntes teóricas que tratam o discurso sob óticas
diversas, ou seja, o enfoque a ser tomado depende de uma decisão que
corresponda aos temas e objetivos de cada trabalho. Neste caso, acredita-se ser
pertinente percorrer os elementos da disciplina para, então, entender a
reinterpretação do mesmo pelo cenário brasileiro e por fim delinear um diálogo
epistemológico com a Ciência da Informação.
The discursive analyzes carried out in the periodicals of Information
Science and Perspectives in Information Science (formerly the Journal of the
School of Library Science of UFMG) in the 1970s, 1980s and 1990s allowed the
visualization of existing scientific paradigms in the area of Brazilian
Information Science. Around the definitions over the decades it was verified
that the epistemology of the area revolves around its interdisciplinarity. In this
sense, we have as general objective to relate the definitions found for the term
"Information Science" with the Physical, Cognitive and Social paradigms. In
addition, it seeks to understand how these paradigms influence the discursive
practices currently carried out in the area. It is justified that the epistemological
studies are fundamental to understand the fields of action in Information Science
mainly in the Brazilian context. It is understood that by linking the existence of
these epistemological paradigms to the analyzes, it enriches even more the
344
structuring of the discursive course of the area in its inaugural moments. It is
known that the adoption of models and patterns are part of scientific evolution
and consolidation, but often fall into the notion of interdiscourse, of effect of
meaning between interlocutors and discursive memory. In understanding a
statement, the speaker complies with laws that regulate the taking of the word in
the linguistic community to which it belongs. This reflection has as qualitative,
documentary, exploratory and theoretical with the use of concepts derived from
Discourse Analysis of French matrix. It is important to emphasize that there is
no consensus on the historical-conceptual status of Discourse Analysis, since it
is the starting point for theoretical currents that treat discourse from different
perspectives, that is, the focus to be taken depends on a decision that
corresponds to the themes and objectives of each work. In this case, it is
believed that it is pertinent to go through the elements of the discipline in order
to understand the reinterpretation of the same by the Brazilian scenario and
finally to delineate an epistemological dialogue with the Information Science.
A RELAÇÃO ENTRE O BIG DATA, COMPETÊNCIA EM
INFORMAÇÃO E O PROCESSO DECISÓRIO
A RELATIONSHIP BETWEEN BIG DATA, INFORMATION
LITERACY AND THE DECISION-MAKING PROCESS
Comunicação Oral / Oral Communication
ZUCCARI, Patrícia.
Unesp / Marília
BELUZZO, Regina Célia Baptista Belluzzo.
Unesp / Marília
Os dados produzidos por empresas e pessoas no mundo todo têm
aumentado a cada dia, devido a facilidade de acesso à Internet e às ferramentas
tecnológicas como computadores, aparelhos celulares, tabletes, entre outros.
Segundo Khoso (2016), a quantidade de dados no mundo foi de 4,4 zettabytes
em 2013 e a previsão é que esse número chegue em 44 zettabytes até 2020,
considerando que um zettabyte é equivalente a 44 trilhões de gigabytes. Para
Storey e Song (2017) inicialmente o Big Data foi caracterizado pelos “3Vs” –
volume, variedade e velocidade, ou seja, um conjunto com um alto volume de
dados, variedade tão grande que era necessário estruturas estruturadas e não
estruturadas e velocidade extremamente rápida. Com o passar do tempo, foram
345
atribuídas outras duas características, ou “2Vs” – veracidade e valor, informação
fidedigna com valor difícil de ser determinado. No entanto, qual a relação entre
o Big Data e a tomada de decisões de gestores? Para McAfee e Brynjolfssson
(2012) essa resposta é muito simples, esses gestores podem avaliar e, portanto,
conhecer radicalmente mais sobre seus negócios e traduzir diretamente esse
conhecimento em decisões e desempenho aprimorados. Em termos práticos,
esses gestores, por exemplo, conseguem conhecer mais os seus consumidores, a
ponto de relacionar os seus comportamentos aos produtos que costumam
comprar, podendo oferecer esse produto antes mesmo do consumidor ir procurá-
lo, influenciando-o, considerando que através de dados das operadoras de
celular é possível saber por onde o indivíduo circulou; ainda, através de seus
likes nas redes sociais identificar os seus gostos e comportamentos; ou revelar o
quanto aquela matéria foi interessante dependendo do tempo que o indivíduo
ficou numa determinada página da Internet. No entanto, com tantos dados à
disposição é preciso saber identificar quais dados são confiáveis e como
manuseá-los para transformá-los em informação, uma vez que a qualidade dessa
informação refletirá no conhecimento necessário para uma melhor tomada de
decisão nas organizações. É de suma importância que esse gestor tenha
competência em informação, uma vez que precisa reconhecer quais informações
são necessárias, saber onde buscá-las, selecioná-las, analisá-las criticamente,
compará-las e compartilhá-las de diversas maneiras, considerando-se que nas
tomadas de decisão existe um alto índice de busca e uso da informação para
permitir a construção do conhecimento. Para Belluzzo (2007, p. 95-103) há
cinco padrões que balizam se a pessoa possui a competência em informação: (1)
a pessoa competente em informação determina a natureza e a extensão da
necessidade de informação; (2) a acessa com efetividade; (3) a avalia de forma
crítica, bem como suas fontes; (4) usa a informação com efetividade para
alcançar um objetivo ou obter um resultado; por fim, (5) compreende questões
econômicas, legais e sociais da ambiência do uso da informação, acessa, usa a
informação ética e legalmente. Diante do exposto, não basta simplesmente
utilizar qualquer informação para a tomada de decisão ou, ainda, inferir de
forma superficial sobre informações baseadas num conjunto de dados, é preciso
possuir competência em informação e esta deve permear todo o processo
decisório.
Data produced by businesses and individuals around the world has
increased every day due to easy access to the Internet and technological tools
such as computers, mobile phones, tablets, among others. According to Khoso
(2016), the amount of data in the world was 4.4 zettabytes in 2013 and the
forecast is for that number to reach 44 zettabytes by 2020, considering that a
zettabyte is equivalent to 44 trillion gigabytes. For Storey and Song (2017) Big
Data was initially characterized by the "3Vs" – volume, variety and speed, ie a
set with a high volume of data, such a large variety that it required structured
346
and unstructured structures and extremely high speed fast. Over time, two other
characteristics were attributed, or "2Vs" – veracity and value, reliable
information with a value difficult to determine. However, what is the
relationship between Big Data and managerial decision-making? For McAfee
and Brynjolfssson (2012) this answer is very simple, these managers can
evaluate and therefore know radically more about their business and translate
that knowledge directly into improved decisions and performance. In practical
terms, these managers, for example, are able to get to know their consumers
more, to the point of relating their behavior to the products they usually buy,
being able to offer this product even before the consumer comes to him and
influences him, of data from mobile operators it is possible to know where the
individual has circulated; still through their likes on social networks identify
their tastes and behaviors; or reveal how interesting that topic was depending on
how long the individual spent on a particular web page. However, with so much
data available, it is necessary to know how to identify which data are reliable
and how to handle them to transform them into information, since the quality of
this information will reflect in the knowledge necessary for better decision-
making. It is of the utmost importance that this manager has information
literacy, since he needs to recognize what information is needed, know where to
look for it, select it, critically analyze it, compare it and share it in various ways,
it is understood that in decision making there is a high index of search and use
of information. For Belluzzo (2007, pp. 95-103) there are five standards that
guide whether a person has information literacy: (1) the information-literate
person determines the nature and extent of the information need; (2) accesses it
effectively; (3) evaluates it critically, as well as its sources; (4) uses information
effectively to achieve a goal or obtain a result; (5) understands economic, legal
and social issues of the environment of the use of information, accesses, uses
information ethically and legally. In view of the above, it is not enough to
simply use any information for decision making or to superficially infer
information based on a set of data, it is necessary to have information literacy
and it must permeate the entire decision-making process.