Em formação - Information

Informações , em um sentido geral, é processado, organizado e estruturado de dados . Ele fornece contexto para dados e permite a tomada de decisões. Por exemplo, a venda de um único cliente em um restaurante são dados - isso se torna informação quando a empresa é capaz de identificar o prato mais popular ou menos popular.

Mais tecnicamente, a informação pode ser considerada como a resolução da incerteza ; responde à pergunta "O que é uma entidade" e, portanto, define sua essência e a natureza de suas características. O conceito de informação tem diferentes significados em diferentes contextos. Assim, o conceito se torna sinônimo de noções de restrição , comunicação , controle , dados , forma , educação , conhecimento , significado , compreensão , estímulos mentais , padrão , percepção , proposição , representação e entropia .

A informação está associada a dados . A diferença é que a informação resolve a incerteza. Os dados podem representar símbolos redundantes, mas aproximam as informações por meio da compactação de dados ideal .

As informações podem ser transmitidas no tempo, por meio de armazenamento de dados , e no espaço, por meio de comunicação e telecomunicações . As informações são expressas como o conteúdo de uma mensagem ou por meio de observação direta ou indireta . Aquilo que é percebido pode ser interpretado como uma mensagem por si só e, nesse sentido, a informação é sempre transmitida como o conteúdo de uma mensagem.

As informações podem ser codificadas em várias formas para transmissão e interpretação (por exemplo, as informações podem ser codificadas em uma sequência de sinais ou transmitidas por meio de um sinal ). Ele também pode ser criptografado para comunicação e armazenamento seguro.

A incerteza de um evento é medida por sua probabilidade de ocorrência. A incerteza é inversamente proporcional à probabilidade de ocorrência. A teoria da informação tira proveito desse fato concluindo que eventos mais incertos requerem mais informações para resolver sua incerteza. O bit é uma unidade típica de informação . É 'aquilo que reduz a incerteza pela metade'. Outras unidades, como o nat, podem ser usadas. Por exemplo, a informação codificada em um lançamento de moeda "justo" é log 2 (2/1) = 1 bit, e em dois lançamentos de moeda justa é log 2 (4/1) = 2 bits. Um artigo de 2011 da Science estimou que 97% das informações armazenadas tecnologicamente já estavam em bits digitais em 2007, e que o ano de 2002 foi o início da era digital para o armazenamento de informações (com a capacidade de armazenamento digital ultrapassando o analógico pela primeira vez).

Etimologia

A palavra inglesa "informação" vem do francês médio enformacion / informacion / information 'uma investigação criminal' e seu etymon, latim informatiō (n) 'concepção, ensino, criação'.

Em inglês, "informação" é um substantivo massivo incontável .

Teoria da informação

A teoria da informação é o estudo científico da quantificação , armazenamento e comunicação da informação. O campo foi fundamentalmente estabelecido pelas obras de Harry Nyquist e Ralph Hartley na década de 1920 e de Claude Shannon na década de 1940. O campo está na interseção da teoria da probabilidade , estatística , ciência da computação, mecânica estatística , engenharia da informação e engenharia elétrica .

Uma medida chave na teoria da informação é a entropia . A entropia quantifica a quantidade de incerteza envolvida no valor de uma variável aleatória ou no resultado de um processo aleatório . Por exemplo, identificar o resultado de um lançamento de moeda justo (com dois resultados igualmente prováveis) fornece menos informações (entropia mais baixa) do que especificar o resultado de um lançamento de um dado (com seis resultados igualmente prováveis). Algumas outras medidas importantes na teoria da informação são informação mútua , capacidade do canal, expoentes de erro e entropia relativa . Importantes sub-campos da teoria da informação incluem fonte de codificação , teoria da complexidade algorítmica , teoria da informação algorítmica e segurança da informação teórica .

As aplicações de tópicos fundamentais da teoria da informação incluem compactação de dados sem perdas (por exemplo, arquivos ZIP ), compactação de dados com perdas (por exemplo, MP3s e JPEGs ) e codificação de canal (por exemplo, para DSL ). Seu impacto foi crucial para o sucesso das missões da Voyager ao espaço profundo, a invenção do CD , a viabilidade dos telefones celulares e o desenvolvimento da Internet. A teoria também encontrou aplicações em outras áreas, incluindo inferência estatística , criptografia , neurobiologia , percepção , linguística, evolução e função de códigos moleculares ( bioinformática ), física térmica , computação quântica , buracos negros, recuperação de informação , coleta de inteligência , detecção de plágio , reconhecimento de padrões , detecção de anomalias e até mesmo criação de arte.

Como entrada sensorial

Freqüentemente, as informações podem ser vistas como um tipo de entrada para um organismo ou sistema . As entradas são de dois tipos; algumas entradas são importantes para o funcionamento do organismo (por exemplo, comida) ou sistema ( energia ) por si mesmas. Em seu livro Sensory Ecology, o biofísico David B. Dusenbery chamou essas entradas de causalidade. Outras entradas (informações) são importantes apenas porque estão associadas a entradas causais e podem ser usadas para prever a ocorrência de uma entrada causal em um momento posterior (e talvez em outro lugar). Algumas informações são importantes por causa da associação com outras informações, mas, eventualmente, deve haver uma conexão com uma entrada causal.

Na prática, a informação é geralmente transportada por estímulos fracos que devem ser detectados por sistemas sensoriais especializados e amplificados por entradas de energia antes que possam ser funcionais para o organismo ou sistema. Por exemplo, a luz é principalmente (mas não apenas, por exemplo, as plantas podem crescer na direção da fonte de luz) uma entrada causal para as plantas, mas para os animais ela apenas fornece informações. A luz colorida refletida de uma flor é muito fraca para a fotossíntese, mas o sistema visual da abelha a detecta e o sistema nervoso da abelha usa a informação para guiá-la até a flor, onde a abelha frequentemente encontra néctar ou pólen, que são entradas causais , servindo uma função nutricional.

Como representação e complexidade

O cientista cognitivo e matemático aplicado Ronaldo Vigo argumenta que informação é um conceito que requer pelo menos duas entidades relacionadas para fazer sentido quantitativo. Estes são, qualquer categoria definida dimensionalmente de objetos S, e qualquer um de seus subconjuntos R. R, em essência, é uma representação de S, ou, em outras palavras, transmite informações representacionais (e, portanto, conceituais) sobre S. Vigo, em seguida, define a quantidade de informação que R transmite sobre S como a taxa de mudança na complexidade de S sempre que os objetos em R são removidos de S. Em "informação de Vigo", padrão, invariância, complexidade, representação e informação - cinco construções fundamentais de ciência universal - são unificadas sob uma nova estrutura matemática. Entre outras coisas, a estrutura visa superar as limitações das informações de Shannon-Weaver ao tentar caracterizar e medir informações subjetivas.

Como uma influência que leva à transformação

Informação é qualquer tipo de padrão que influencia a formação ou transformação de outros padrões. Nesse sentido, não há necessidade de uma mente consciente perceber, muito menos apreciar, o padrão. Considere, por exemplo, o DNA . A sequência de nucleotídeos é um padrão que influencia a formação e o desenvolvimento de um organismo sem a necessidade de uma mente consciente. Pode-se argumentar, entretanto, que para um ser humano definir conscientemente um padrão, por exemplo, um nucleotídeo, naturalmente envolve o processamento de informação consciente.

A teoria dos sistemas às vezes parece referir-se à informação neste sentido, assumindo que a informação não envolve necessariamente qualquer mente consciente, e os padrões que circulam (devido ao feedback ) no sistema podem ser chamados de informação. Em outras palavras, pode-se dizer que informação nesse sentido é algo potencialmente percebido como representação, embora não seja criado ou apresentado para esse fim. Por exemplo, Gregory Bateson define "informação" como uma "diferença que faz a diferença".

Se, no entanto, a premissa de "influência" implica que a informação foi percebida por uma mente consciente e também interpretada por ela, o contexto específico associado a essa interpretação pode causar a transformação da informação em conhecimento . Definições complexas de "informação" e "conhecimento" tornam essa análise semântica e lógica difícil, mas a condição de "transformação" é um ponto importante no estudo da informação no que se refere ao conhecimento, especialmente na disciplina de negócios de gestão do conhecimento . Nesta prática, ferramentas e processos são usados ​​para auxiliar um trabalhador do conhecimento a realizar pesquisas e tomar decisões, incluindo etapas como:

  • Revise as informações para derivar efetivamente valor e significado
  • Metadados de referência, se disponíveis
  • Estabeleça um contexto relevante , muitas vezes de muitos contextos possíveis
  • Extraia novos conhecimentos das informações
  • Tome decisões ou recomendações com base no conhecimento resultante

Stewart (2001) argumenta que a transformação da informação em conhecimento é crítica, estando no cerne da criação de valor e vantagem competitiva para a empresa moderna.

O Dicionário Dinamarquês de Termos de Informação argumenta que a informação fornece apenas uma resposta a uma pergunta feita. Se a resposta fornece conhecimento depende da pessoa informada. Portanto, uma definição generalizada do conceito deve ser: "Informação" = Uma resposta a uma pergunta específica ".

Quando Marshall McLuhan fala da mídia e de seus efeitos nas culturas humanas, ele se refere à estrutura dos artefatos que, por sua vez, moldam nossos comportamentos e mentalidades. Além disso, freqüentemente se diz que os feromônios são "informações" nesse sentido.

Informação mediada tecnologicamente

Essas seções estão usando medições de dados em vez de informações, pois as informações não podem ser medidas diretamente.

A partir de 2017

Estima-se que a capacidade tecnológica mundial para armazenar informações cresceu de 2,6 (compactados de forma otimizada) exabytes em 1986 - que é o equivalente informativo a menos de um CD-ROM de 730 MB por pessoa (539 MB por pessoa) - para 295 (de forma ideal compactado) exabytes em 2007. Este é o equivalente informativo de quase 61 CD-ROM por pessoa em 2007.

A capacidade tecnológica mundial combinada de receber informações por meio de redes de transmissão unilateral foi o equivalente informacional a 174 jornais por pessoa por dia em 2007.

A capacidade efetiva combinada do mundo para trocar informações por meio de redes de telecomunicações bidirecionais foi o equivalente informacional a 6 jornais por pessoa por dia em 2007.

Em 2007, cerca de 90% de todas as novas informações são digitais, principalmente armazenadas em discos rígidos.

A partir de 2020

A quantidade total de dados criados, capturados, copiados e consumidos globalmente deve aumentar rapidamente, atingindo 64,2 zetabytes em 2020. Nos próximos cinco anos até 2025, a criação de dados globais deve crescer para mais de 180 zetabytes.

Como registros

Os registros são formas especializadas de informação. Essencialmente, os registros são informações produzidas conscientemente ou como subprodutos de atividades ou transações comerciais e retidas devido ao seu valor. Primeiramente, seu valor é uma evidência das atividades da organização, mas também pode ser retido por seu valor informativo. O gerenciamento seguro de registros garante que a integridade dos registros seja preservada pelo tempo que forem necessários.

A norma internacional sobre gerenciamento de registros, ISO 15489, define registros como "informações criadas, recebidas e mantidas como evidências e informações por uma organização ou pessoa, em cumprimento de obrigações legais ou na transação de negócios". O Comitê de registros eletrônicos do Comitê Internacional de Arquivos (ICA) definiu um registro como "informações registradas produzidas ou recebidas no início, condução ou conclusão de uma atividade institucional ou individual e que compreende conteúdo, contexto e estrutura suficientes para fornecer evidências do atividade".

Os registros podem ser mantidos para reter a memória corporativa da organização ou para atender aos requisitos legais, fiscais ou de responsabilidade impostos à organização. Willis expressou a opinião de que a gestão sólida de registros de negócios e informações entregues "... seis requisitos-chave para uma boa governança corporativa ... transparência; responsabilidade; devido processo; conformidade; atendimento aos requisitos legais e comuns; e segurança de informações pessoais e corporativas . "

Semiótica

Michael Buckland classificou "informação" em termos de seus usos: "informação como processo", "informação como conhecimento" e "informação como coisa".

Beynon-Davies explica o conceito multifacetado de informação em termos de signos e sistemas signo-signos. Os próprios sinais podem ser considerados em termos de quatro níveis, camadas ou ramos interdependentes da semiótica : pragmática, semântica, sintaxe e empírica. Essas quatro camadas servem para conectar o mundo social, por um lado, com o mundo físico ou técnico, por outro.

A pragmática se preocupa com o propósito da comunicação. A pragmática relaciona a questão dos signos com o contexto em que os signos são usados. O foco da pragmática está nas intenções dos agentes vivos subjacentes ao comportamento comunicativo. Em outras palavras, a pragmática vincula a linguagem à ação.

A semântica preocupa-se com o significado de uma mensagem veiculada em um ato comunicativo. A semântica considera o conteúdo da comunicação. A semântica é o estudo do significado dos signos - a associação entre os signos e o comportamento. A semântica pode ser considerada como o estudo da ligação entre os símbolos e seus referentes ou conceitos - particularmente a maneira como os signos se relacionam com o comportamento humano.

A sintaxe se preocupa com o formalismo usado para representar uma mensagem. A sintaxe como área estuda a forma de comunicação em termos da lógica e da gramática dos sistemas de signos. A sintaxe é devotada ao estudo da forma e não ao conteúdo dos signos e sistemas de signos.

Nielsen (2008) discute a relação entre semiótica e informação em relação aos dicionários. Ele introduz o conceito de custos de informação lexicográfica e se refere ao esforço que um usuário de um dicionário deve fazer para primeiro encontrar e então entender os dados para que eles possam gerar informações.

A comunicação normalmente existe no contexto de alguma situação social. A situação social define o contexto para as intenções veiculadas (pragmática) e a forma de comunicação. Numa situação comunicativa, as intenções são expressas por meio de mensagens que compreendem coleções de signos inter-relacionados retirados de uma linguagem mutuamente compreendida pelos agentes envolvidos na comunicação. A compreensão mútua implica que os agentes envolvidos entendam a linguagem escolhida em termos de sua sintaxe (sintaxe) e semântica acordadas. O remetente codifica a mensagem no idioma e a envia como sinais por algum canal de comunicação (empírico). O canal de comunicação escolhido tem propriedades inerentes que determinam resultados, como a velocidade em que a comunicação pode ocorrer e a que distância.

A aplicação do estudo de informação

O ciclo de informações (abordadas como um todo ou em seus componentes distintos) é de grande preocupação para a tecnologia da informação , sistemas de informação , bem como ciência da informação . Esses campos lidam com os processos e técnicas pertencentes à captura de informações (por meio de sensores ) e geração (por meio de computação , formulação ou composição), processamento (incluindo codificação, criptografia, compressão, embalagem), transmissão (incluindo todos os métodos de telecomunicações ), apresentação (incluindo métodos de visualização / exibição ), armazenamento (como magnético ou óptico, incluindo métodos holográficos ), etc.

A visualização da informação (abreviada como InfoVis) depende do cálculo e da representação digital dos dados e auxilia os usuários no reconhecimento de padrões e detecção de anomalias .

Segurança da informação (abreviado como InfoSec) é o processo contínuo de exercício de due diligence para proteger as informações e os sistemas de informação, de acesso não autorizado, uso, divulgação, destruição, modificação, interrupção ou distribuição, por meio de algoritmos e procedimentos focados em monitoramento e detecção, como bem como resposta a incidentes e reparo.

A análise de informações é o processo de inspecionar, transformar e modelar informações, convertendo dados brutos em conhecimento acionável, em apoio ao processo de tomada de decisão.

Qualidade da informação (abreviado como InfoQ) é o potencial de um conjunto de dados para atingir um objetivo específico (científico ou prático) usando um determinado método de análise empírica.

A comunicação da informação representa a convergência da informática, telecomunicações e mídia e conteúdo audiovisual.

Veja também

Referências

Leitura adicional

links externos