Biolinguística - Biolinguistics

Massimo Piattelli-Palmarini

A Biolinguística pode ser definida como o estudo da biologia e da evolução da linguagem. É altamente interdisciplinar, pois está relacionado a vários campos como biologia , linguística , psicologia , antropologia , matemática e neurolinguística para explicar a formação da linguagem. É importante porque visa produzir uma estrutura pela qual possamos compreender os fundamentos da faculdade da linguagem. Este campo foi introduzido pela primeira vez por Massimo Piattelli-Palmarini, professor de Linguística e Ciências Cognitivas da Universidade do Arizona . Ele foi apresentado pela primeira vez em 1971, em um encontro internacional no Massachusetts Institute of Technology (MIT). Acredita-se que a biolinguística, também chamada de empreendimento biolinguística ou abordagem biolinguística, tenha suas origens no trabalho de Noam Chomsky e Eric Lenneberg sobre a aquisição da linguagem, que começou na década de 1950 como uma reação ao paradigma behaviorista então dominante. Fundamentalmente, a biolinguística desafia a visão da aquisição da linguagem humana como um comportamento baseado em interações e associações estímulo-resposta. Chomsky e Lenneberg militaram contra isso argumentando a favor do conhecimento inato da linguagem. Chomsky, na década de 1960, propôs o Dispositivo de Aquisição de Linguagem (LAD) como uma ferramenta hipotética para a aquisição da linguagem com a qual apenas os humanos nascem. Da mesma forma, Lenneberg (1967) formulou a Hipótese do Período Crítico , cuja ideia principal é que a aquisição da linguagem é biologicamente restrita. Essas obras foram consideradas pioneiras na formação do pensamento biolinguístico, no que foi o início de uma mudança de paradigma no estudo da linguagem.

Origens da biolinguística

A investigação dos fundamentos biológicos da linguagem está associada a dois períodos históricos, a saber, o do século 19 (principalmente por meio da teoria da evolução darwiniana) e do século 20 (principalmente por meio da integração da linguística matemática (na forma da gramática gerativa de Chomsky) com a neurociência.

Século 19: a teoria da evolução de Darwin

Darwin.jpg

O darwinismo inspirou muitos pesquisadores a estudar a linguagem, em particular a evolução da linguagem, através das lentes da biologia. A teoria de Darwin sobre a origem da linguagem tenta responder a três questões importantes:

  1. Os indivíduos passaram por algo como seleção à medida que evoluíram?
  2. A seleção desempenhou um papel na produção da capacidade de linguagem em humanos?
  3. Se a seleção desempenhou um papel, foi ela a principal responsável pelo surgimento da linguagem, foi apenas uma das várias causas que contribuíram?

Datado de 1821, o lingüista alemão August Scheilurer foi o pioneiro representante da biolinguística, discutindo a evolução da linguagem com base na teoria da evolução de Darwin. Visto que a lingüística era considerada uma forma de ciência histórica sob a influência da Société de Linguistique de Paris , especulações sobre a origem da linguagem não eram permitidas. Como resultado, dificilmente qualquer lingüista proeminente escreveu sobre a origem da linguagem além do lingüista alemão Hugo Schuchardt . O darwinismo abordou os argumentos de outros pesquisadores e estudiosos, tanto quanto Max Müller, argumentando que o uso da linguagem, embora exija uma certa capacidade mental, também estimula o desenvolvimento do cérebro, permitindo longas sequências de pensamento e fortalecendo o poder. Darwin traçou uma extensa analogia entre a evolução das línguas e das espécies, observando em cada domínio a presença de rudimentos, de cruzamento e mistura e variação, e observando como cada desenvolvimento gradualmente por meio de um processo de luta.

Século 20: Fundação biológica da linguagem

A primeira fase no desenvolvimento da biolinguística vai até o final dos anos 1960, com a publicação de Biological Foundation of Language de Lennberg (1967). Durante a primeira fase, o trabalho focou em:

  • especificando as condições de fronteira para a linguagem humana como um sistema de cognição;
  • desenvolvimento da linguagem conforme se apresenta na sequência de aquisição pela qual as crianças passam quando aprendem uma língua
  • genética de distúrbios de linguagem que criam deficiências específicas de linguagem, incluindo dislexia e surdez)
  • evolução da linguagem.

Durante esse período, o maior progresso foi feito no sentido de chegar a uma melhor compreensão das propriedades definidoras da linguagem humana como um sistema de cognição. Três eventos marcantes moldaram o campo moderno da biolinguística: duas conferências importantes foram realizadas na década de 1970 e um artigo retrospectivo foi publicado em 1997 por Lyle Jenkins.

  • 1974 : A primeira conferência biolinguística oficial foi organizada por ele em 1974, reunindo biólogos evolucionistas , neurocientistas, linguistas e outros interessados ​​no desenvolvimento da linguagem no indivíduo, suas origens e evolução.
  • 1976 : outra conferência foi realizada pela Academia de Ciências de Nova York, após a qual vários trabalhos sobre a origem da linguagem foram publicados.
  • 1997 : Para o 40º aniversário da gramática gerativa transformacional, Lyle Jenkins escreveu um artigo intitulado "Biolinguística: Desenvolvimento da estrutura e evolução da linguagem".

A segunda fase começou no final dos anos 1970. Em 1976, Chomsky formulou as questões fundamentais da biolinguística como se segue: i) função, ii) estrutura, iii) base física, iv) desenvolvimento do indivíduo, v) desenvolvimento evolutivo. No final da década de 1980, um grande progresso foi feito em respostas a perguntas sobre o desenvolvimento da linguagem. Isso, então, gerou mais perguntas sobre o design da linguagem. função, e, a evolução da linguagem. No ano seguinte, Juan Uriagereka, aluno de graduação de Howard Lasnik, escreveu o texto introdutório à sintaxe minimalista, rima e razão. Seu trabalho renovou o interesse pela biolinguística, catalisando muitos lingüistas a estudar a biolinguística com seus colegas em disciplinas científicas adjacentes. Tanto Jenkins quanto Uriagereka enfatizaram a importância de abordar o surgimento da faculdade de linguagem em humanos. Quase ao mesmo tempo, os geneticistas descobriram uma ligação entre o déficit de linguagem manifestado pelos membros da família KE e o gene FOXP2 . Embora o FOXP2 não seja o gene responsável pela linguagem, essa descoberta reuniu muitos lingüistas e cientistas para interpretar esses dados, renovando o interesse da biolinguística.

Embora muitos linguistas tenham opiniões divergentes no que diz respeito à história da biolinguística, Chomsky acredita que sua história foi simplesmente a da gramática transformacional . Enquanto a professora Anna Maria Di Sciullo afirma que a pesquisa interdisciplinar de biologia e linguística nas décadas de 1950-1960 levou ao surgimento da biolinguística. Além disso, Jenkins acredita que a biolinguística foi o resultado de gramáticos transformacionais estudando a linguística humana e o mecanismo biológico. Por outro lado, os linguistas Martin Nowak e Charles Yang argumentam que a biolinguística, originada na década de 1970, é uma gramática transformacional distinta; em vez disso, um novo ramo do paradigma de pesquisa lingüística-biologia iniciado pela gramática transformacional.

Desenvolvimentos

Teorias de Chomsky

Gramática universal e gramática gerativa

Noam Chomsky

Em Aspectos da teoria da sintaxe , Chomsky propôs que as línguas são o produto de uma capacidade determinada biologicamente presente em todos os humanos, localizada no cérebro. Ele aborda três questões centrais da biolinguística: o que constitui o conhecimento da linguagem, como o conhecimento é adquirido, como o conhecimento é colocado em uso? Grande parte de nossa deve ser inata, apoiando sua afirmação com o fato de que os falantes são capazes de produzir e compreender frases novas sem instruções explícitas. Chomsky propôs que a forma da gramática pode se fundir com a estrutura mental proporcionada pelo cérebro humano e argumentou que categorias gramaticais formais como substantivos, verbos e adjetivos não existem. A teoria linguística da gramática gerativa, portanto, propõe que as sentenças são geradas por um conjunto subconsciente de procedimentos que fazem parte da capacidade cognitiva de um indivíduo. Esses procedimentos são modelados por meio de um conjunto de regras gramaticais formais que se pensa gerar frases em uma língua.

Chomsky se concentra na mente do aprendiz ou usuário da linguagem e propôs que as propriedades internas do corpo docente da linguagem estão intimamente ligadas à biologia física dos humanos. Ele ainda introduziu a ideia de uma Gramática Universal (UG) teorizada para ser inerente a todos os seres humanos. Do ponto de vista da abordagem Biolinguística, o processo de aquisição da linguagem seria rápido e suave porque os humanos obtêm naturalmente as percepções fundamentais em relação à Gramática Universal, que é o oposto da abordagem baseada no uso. UG refere-se ao estado inicial da faculdade de linguagem; um órgão biologicamente inato que ajuda o aluno a entender os dados e a construir uma gramática interna. A teoria sugere que todas as línguas humanas estão sujeitas a princípios ou parâmetros universais que permitem diferentes escolhas (valores). Também afirma que os humanos possuem gramática generativa, que está embutida no cérebro humano de algumas maneiras e possibilita que crianças pequenas façam uma aquisição rápida e universal da fala. Os elementos da variação linguística determinam então o crescimento da linguagem no indivíduo, e a variação é o resultado da experiência, dada a dotação genética e os princípios independentes que reduzem a complexidade. O trabalho de Chomsky é frequentemente reconhecido como a perspectiva fraca da biolinguística, uma vez que não vem de outros campos de estudo fora da linguística.

Hipótese de Modularidade

Segundo Chomsky, o cérebro do ser humano consiste em várias seções que possuem suas funções individuais, como a faculdade de linguagem, o reconhecimento visual.

Dispositivo de aquisição de linguagem

A aquisição da linguagem é um feito universal e acredita-se que todos nascemos com uma estrutura inata proposta inicialmente por Chomsky na década de 1960. O Dispositivo de Aquisição de Linguagem (LAD) foi apresentado como uma estrutura inata em humanos que possibilitou o aprendizado de línguas. Acredita-se que os indivíduos estejam "conectados" com regras gramaticais universais, permitindo-lhes compreender e avaliar estruturas sintáticas complexas. Os proponentes do LAD costumam citar o argumento da pobreza de estímulos negativos, sugerindo que as crianças contam com o LAD para desenvolver seu conhecimento de uma língua, apesar de não serem expostas a um ambiente linguístico rico. Mais tarde, Chomsky trocou essa noção pela de Gramática Universal, fornecendo evidências para uma base biológica da linguagem.

Programa Minimalista

O Programa Minimalista (MP) foi introduzido por Chomsky em 1993 e se concentra no paralelo entre a linguagem e o design de conceitos naturais. Aqueles investidos no Programa Minimalista estão interessados ​​na física e matemática da linguagem e seus paralelos com nosso mundo natural. Por exemplo, Piatelli-Palmarini estudou a relação isomórfica entre o Programa Minimalista e a Teoria Quântica de Campos . O Programa Minimalista visa descobrir quanto do modelo de Princípios e Parâmetros pode ser tomado como resultado do projeto hipotético ideal e computacionalmente eficiente do corpo docente da linguagem humana e versões mais desenvolvidas da abordagem de Princípios e Parâmetros, por sua vez, fornecem princípios técnicos de que o programa minimalista pode ser visto a seguir. O programa visa ainda desenvolver ideias envolvendo a economia de derivação e economia de representação , que começaram a se tornar uma teoria independente no início de 1990, mas ainda eram considerados periféricos da gramática transformacional .

Unir

A operação Merge é usada por Chomsky para explicar a estrutura das árvores sintáticas dentro do programa Minimalista. Merge em si é um processo que fornece a base da formação frasal como resultado de pegar dois elementos dentro de uma frase e combiná-los. Em AM Di Sciullo & D. Isac, The Asymmetry of Merge (2008), eles destacam as duas bases principais de Merge por Chomsky;

  • Merge é binário
  • Merge é recursivo

Para entender isso, tome a seguinte frase: Emma não gosta de tortas

Esta frase pode ser dividida em seus itens lexicais:

[VP [DP Emma] [V '[V não gosta] [DP [D the] [NP pie]]]]

A representação frasal acima permite a compreensão de cada item lexical. Para construir uma árvore usando Merge, usando a formação de baixo para cima, os dois elementos finais da frase são selecionados e então combinados para formar um novo elemento na árvore. Na imagem a) você pode ver que o determinador do e sintagma nominal torta estão selecionadas. Através do processo de Merge, o novo elemento formado na árvore é a frase determinante (DP) que contém, a torta, que é visível em b).

Componentes do núcleo

Em uma abordagem minimalista, existem três componentes principais da faculdade de linguagem proposta: sistema sensório-motor (SM), sistema conceitual-intencional (IC) e sintaxe estreita (NS). O SM inclui requisitos biológicos para a produção e percepção da linguagem, como órgãos articulatórios, e o IC atende aos requisitos biológicos relacionados à inferência, interpretação e raciocínio, aqueles envolvidos em outras funções cognitivas. Como SM e CI são finitos, a função principal de NS é possibilitar a produção de um número infinito de pares de significados sonoros.

Relevância da Lei Natural

É possível que os princípios fundamentais da Faculdade de Linguagem sejam correlacionados a leis naturais (como por exemplo, a sequência de Fibonacci - uma matriz de números onde cada número consecutivo é uma soma dos dois que o precedem, veja por exemplo a discussão Uriagereka 1997 e Carnie e Medeiros 2005). De acordo com a hipótese que está sendo desenvolvida, as propriedades essenciais da linguagem surgem da própria natureza: a exigência de crescimento eficiente aparece em todos os lugares, desde o padrão das pétalas nas flores, os arranjos das folhas nas árvores e as espirais de uma concha até a estrutura do DNA e as proporções de cabeça e corpo humanos. A Lei Natural , neste caso, forneceria uma visão sobre conceitos como ramificação binária em árvores sintáticas e também a operação Merge. Isso se traduziria em pensar em termos de pegar dois elementos em uma árvore de sintaxe e de forma que sua soma produza outro elemento que cai abaixo da árvore de sintaxe fornecida (consulte as árvores acima em Programa Minimalista ). Ao aderir a essa soma dos dois elementos que a precedem, fornece suporte para estruturas binárias. Além disso, a possibilidade de ramificação ternária se desviaria da sequência de Fibonacci e, consequentemente, não seria um forte suporte para a relevância do Direito Natural na sintaxe.

Biolinguística: desafiando a abordagem baseada no uso

Como mencionado acima, a biolinguística desafia a ideia de que a aquisição da linguagem é resultado da aprendizagem baseada no comportamento. Essa abordagem alternativa aos desafios da biolinguística é conhecida como abordagem baseada no uso (UB). O UB apóia a ideia de que o conhecimento da linguagem humana é adquirido por meio da exposição e do uso. Um dos principais problemas que é destacado ao argumentar contra a abordagem Baseada no Uso, é que o UB falha em abordar a questão da pobreza de estímulo, enquanto a biolinguística aborda isso por meio do Dispositivo de Aquisição de Linguagem.

Lenneberg e o papel dos genes

Outro grande contribuidor na área é Eric Lenneberg . Em seu livro Biological Foundation of Languages , Lenneberg (1967) sugere que diferentes aspectos da biologia humana que supostamente contribuem para a linguagem mais do que os genes em jogo. Essa integração de outros campos para explicar a linguagem é reconhecida como a visão forte da biolinguística. Embora sejam obviamente essenciais e os genomas estejam associados a organismos específicos, os genes não armazenam características (ou "faculdades") da maneira que os linguistas - incluindo os chomskianos - às vezes parece implicar.

Ao contrário do conceito de existência de uma faculdade de linguagem sugerido por Chomsky, Lenneberg argumenta que, embora existam regiões e redes específicas envolvidas de maneira crucial na produção da linguagem, não existe uma única região à qual a capacidade da linguagem está confinada e essa fala, como assim como a linguagem, não se limita ao córtex cerebral . Lenneberg considerava a linguagem um órgão mental específico da espécie com propriedades biológicas significativas. Ele sugeriu que esse órgão cresce na mente / cérebro de uma criança da mesma maneira que outros órgãos biológicos crescem, mostrando que o caminho da criança para a linguagem exibe a marca registrada do crescimento biológico. De acordo com Lenneberg, os mecanismos genéticos desempenham um papel importante no desenvolvimento do comportamento de um indivíduo e são caracterizados por dois aspectos:

  • O reconhecimento de uma relação indireta entre genes e características, e;
  • A rejeição da existência de genes 'especiais' para a linguagem, ou seja, a rejeição da necessidade de um genótipo especificamente linguístico;

Com base nisso, Lenneberg prossegue afirmando que nenhum tipo de princípio funcional poderia ser armazenado nos genes de um indivíduo, rejeitando a ideia de que existem genes para características específicas, incluindo a linguagem. Em outras palavras, esses genes podem conter características. Ele então propôs que a maneira pela qual os genes influenciam os padrões gerais de estrutura e função é por meio de sua ação sobre a ontogênese dos genes como um agente causal que é individualmente o responsável direto e único por um fenótipo específico, criticando a hipótese anterior de Charles Goodwin .

Desenvolvimentos recentes

Procedimento gerador aceito no presente e seus desenvolvimentos

Na biolinguística, a linguagem é reconhecida por ser baseada em um procedimento generativo recursivo que recupera palavras do léxico e as aplica repetidamente às frases de saída. Este procedimento generativo foi hipotetizado como resultado de uma pequena mutação cerebral devido à evidência de que a ordenação de palavras é limitada à externalização e não desempenha nenhum papel na sintaxe central ou na semântica. Assim, diferentes linhas de investigação para explicar isso foram exploradas.

A linha de investigação mais comumente aceita para explicar isso é a abordagem minimalista de Noam Chomsky para as representações sintáticas. Em 2016, Chomsky e Berwick definiram o programa minimalista sob a Tese Minimalista Forte em seu livro Why Only Us , dizendo que a linguagem é comandada por cálculos eficientes e, portanto, mantém as operações recursivas mais simples. A principal operação básica no programa minimalista é a fusão . Na fusão, existem duas maneiras de construir expressões maiores: externamente e internamente. Os itens lexicais que são mesclados externamente criam representações de argumento com constituintes separados. A fusão interna cria estruturas constituintes onde uma é parte da outra. Isso induz o deslocamento , a capacidade de pronunciar frases em uma posição, mas interpretá-las em outro lugar.

Investigações recentes de deslocamento concorrem para uma ligeira reconfiguração nas regiões corticais do cérebro que poderia ter ocorrido historicamente e perpetuado a gramática generativa. Mantendo essa linha de pensamento, em 2009, Ramus e Fishers especularam que um único gene poderia criar uma molécula sinalizadora para facilitar novas conexões cerebrais ou uma nova área do cérebro por meio de regiões cerebrais pré-natalmente definidas. Isso resultaria no processamento de informações muito importantes para a linguagem, como a conhecemos. A disseminação desse traço de vantagem poderia ser responsável pela externalização secundária e pela interação em que nos engajamos. Se isso for verdade, então o objetivo da biolinguística é descobrir o máximo que pudermos sobre os princípios subjacentes à recursão mental .

Comunicação Humana versus Animal

Em comparação com outros tópicos em linguística onde os dados podem ser exibidos com evidências interlinguisticamente, devido à natureza da biolinguística, e que se aplica a toda a linguística, em vez de apenas uma subseção específica, examinar outras espécies pode ajudar no fornecimento de dados. Embora os animais não tenham as mesmas competências linguísticas que os humanos, presume-se que eles podem fornecer evidências de alguma competência linguística.

A ciência relativamente nova da evo-devo, que sugere que todos são descendentes comuns de uma única árvore, abriu caminhos para o estudo de genes e bioquímicos. Uma maneira pela qual isso se manifestou dentro da biolinguística é através da sugestão de um gene comum da linguagem, o FOXP2 . Embora esse gene esteja sujeito a debate, houve descobertas recentes interessantes feitas a respeito dele e do papel que ele desempenha no processo de externalização secundária. Estudos recentes de pássaros e camundongos resultaram em um consenso emergente de que FOXP2 não é um projeto para a sintaxe interna nem a estreita faculdade da linguagem, mas sim compõe o mecanismo regulatório pertencente ao processo de externalização. Foi descoberto que ajuda a sequenciar sons ou gestos um após o outro, o que implica que FOXP2 ajuda a transferir conhecimento da memória declarativa para a procedural. Portanto, o FOXP2 foi descoberto como um auxílio na formulação de um sistema de entrada-saída linguístico que funciona sem problemas.

A Hipótese de Integração

De acordo com a Hipótese de Integração, a linguagem humana é a combinação do componente Expressivo (E) e do componente Lexical (L). No nível das palavras, o componente L contém o conceito e o significado que queremos transmitir. O componente E contém informações gramaticais e inflexão. Para frases, frequentemente vemos uma alternância entre os dois componentes. Nas frases, o componente E é responsável por fornecer a forma e a estrutura das palavras lexicais de nível básico, enquanto esses itens lexicais e seus significados correspondentes encontrados no léxico constituem o componente L. Isso tem consequências para a nossa compreensão de: (i) as origens dos componentes E e L encontrados nos sistemas de comunicação de pássaros e macacos; (ii) o rápido surgimento da linguagem humana em relação às palavras; (iii) evidência de estrutura hierárquica em palavras compostas ; (iv) o papel das frases na detecção da operação de construção da estrutura Fusão ; e (v) a aplicação dos componentes E e L às sentenças. Desta forma, vemos que a Hipótese de Integração pode ser aplicada a todos os níveis da linguagem: o nível da palavra, frasal e frase.

As origens dos sistemas E e L em sistemas de comunicação de pássaros e macacos

Através da aplicação da Hipótese de Integração, pode-se perceber que a interação entre os componentes E e L permite que a estrutura da linguagem (componente E) e os itens lexicais (componente L) operem simultaneamente dentro de uma forma de comunicação complexa: a linguagem humana. No entanto, acredita-se que esses dois componentes tenham surgido de dois sistemas de comunicação separados e pré-existentes no mundo animal. Descobriu-se que os sistemas de comunicação de pássaros e macacos são os antecedentes da linguagem humana. O sistema de comunicação do canto dos pássaros é composto inteiramente pelo componente E, enquanto o sistema de chamada de alarme usado pelos macacos é composto pelo componente L. A linguagem humana é considerada o subproduto desses dois sistemas separados encontrados em pássaros e macacos, devido aos paralelos entre a comunicação humana e esses dois sistemas de comunicação animal.

O sistema de comunicação dos pássaros canoros é comumente descrito como um sistema baseado em operações sintáticas. Especificamente, o canto dos pássaros permite a combinação sistemática de elementos sonoros para formar um canto. Da mesma forma, as línguas humanas também operam sintaticamente por meio da combinação de palavras, que são calculadas sistematicamente. Embora a mecânica do canto dos pássaros prospere com a sintaxe, parece que as notas, sílabas e motivos que são combinados a fim de eliciar as diferentes canções podem não conter necessariamente qualquer significado. O sistema de comunicação dos pássaros canoros também carece de um léxico que contenha um conjunto de qualquer tipo de pares significado-para-referente. Essencialmente, isso significa que um som individual produzido por um pássaro canoro não tem um significado associado a ele, como ocorre com uma palavra na linguagem humana. O canto dos pássaros pode ser estruturado, mas não é capaz de carregar significado. Desse modo, o destaque da sintaxe e a ausência de significado lexical apresentam o canto dos pássaros como forte candidato a ser um antecedente simplificado do componente E encontrado na linguagem humana, já que este componente também carece de informação lexical. Enquanto os pássaros que usam o canto dos pássaros podem contar apenas com este componente E para se comunicar, as expressões humanas requerem significado lexical, além das operações estruturais, uma parte do componente E, já que a linguagem humana é incapaz de operar apenas com a estrutura sintática ou palavras de função estrutural sozinhas. Isso é evidente porque a comunicação humana consiste de fato em um léxico e os humanos produzem sequências combinadas de palavras que são significativas, mais conhecidas como frases. Isso sugere que parte da linguagem humana deve ter sido adaptada do sistema de comunicação de outro animal para que o componente L surja.

Um estudo bem conhecido de Seyfarth et al. investigou a natureza referencial das chamadas de alarme de macacos vervet. Esses macacos têm três chamadas de alarme definidas, com cada chamada mapeando diretamente para um dos seguintes referentes: um leopardo, uma águia ou uma cobra. Cada chamada é usada para alertar outros macacos sobre a presença de um desses três predadores em seu entorno ambiental imediato. A ideia principal é que a chamada de alarme contenha informação lexical que pode ser usada para representar o referente a que se refere. Essencialmente, todo o sistema de comunicação usado pelos macacos é composto pelo sistema L, de forma que apenas essas chamadas baseadas no léxico são necessárias para uma comunicação eficaz. Isso é semelhante ao componente L encontrado na linguagem humana, em que palavras de conteúdo são usadas para se referir a um referente no mundo real, contendo a informação lexical relevante. O componente L na linguagem humana é, no entanto, uma variante muito mais complexa do componente L encontrado em sistemas de comunicação de macacos vervet: os humanos usam muito mais do que apenas três formas de palavras para se comunicar. Enquanto os macacos vervet são capazes de se comunicar apenas com o componente L, os humanos não são, já que a comunicação apenas com palavras de conteúdo não produz sentenças gramaticais bem formadas. É por esta razão que o componente L é combinado com o componente E responsável pela estrutura sintática para produzir a linguagem humana.

O rápido surgimento da linguagem humana

Como traços dos componentes E e L foram encontrados na natureza, a hipótese de integração afirma que esses dois sistemas existiam antes da linguagem humana e que foi a combinação desses dois sistemas pré-existentes que rapidamente levou ao surgimento da linguagem humana. A hipótese de integração postula que foi o operador gramatical, Merge, que acionou a combinação dos sistemas E e L para criar a linguagem humana. Nessa visão, a linguagem surgiu rápida e totalmente formada, já contendo estrutura sintática. Isso contrasta com a Abordagem Gradualista, onde se pensa que as primeiras formas de linguagem não tinham sintaxe. Em vez disso, os defensores da Abordagem Gradualista acreditam que a linguagem progrediu lentamente por uma série de estágios como resultado de um operador combinatório simples que gerou estruturas planas. Começando com um estágio de uma palavra, depois um estágio de duas palavras, depois um estágio de três palavras, etc., acredita-se que a linguagem desenvolveu uma hierarquia em estágios posteriores.

No artigo, A precedência da sintaxe no rápido surgimento da linguagem humana na evolução definida pela hipótese de integração , Nóbrega & Miyagawa esboçam a hipótese de integração no que se refere às palavras. Para explicar a Hipótese de Integração no que se refere às palavras, todos devem primeiro concordar com a definição de uma 'palavra'. Embora isso pareça bastante simples em inglês, não é o caso em outros idiomas. Para permitir a discussão inter-linguística, a ideia de uma "raiz" é usada em seu lugar, onde uma "raiz" encapsula um conceito no nível mais básico. Para diferenciar entre "raízes" e "palavras", deve-se notar que as "raízes" são completamente desprovidas de qualquer informação relativa à categoria ou inflexão gramatical. Portanto, "raízes" formam o componente lexical da Hipótese de Integração, enquanto a categoria gramatical (substantivo, verbo, adjetivo) e propriedades flexionais (por exemplo, caso, número, tempo, etc.) formam o componente expressivo.

Uma árvore sintática em que o nó raiz x domina os nós x e ROOT.
Uma "raiz" (camada L) é integrada à camada E para mostrar que existe uma estrutura hierárquica subjacente dentro das palavras. Adaptado de Nórega & Miyagawa (48)

Assim, no nível mais básico para a formação de uma "palavra" na linguagem humana, deve haver uma combinação do componente L com o componente E. Quando conhecemos uma "palavra" em uma língua, devemos conhecer ambos os componentes: o conceito a que se refere, bem como sua categoria gramatical e inflexão. O primeiro é o componente L; o último é o componente E. A hipótese de integração sugere que foi o operador gramatical Merge que desencadeou essa combinação, ocorrendo quando um objeto linguístico (camada L) satisfaz a característica gramatical de outro objeto linguístico (camada E). Isso significa que não se espera que os componentes L se combinem diretamente uns com os outros.

Com base nessa análise, acredita-se que a linguagem humana surgiu em uma única etapa. Antes dessa rápida emergência, o componente L, "raízes", existia individualmente, não tinha características gramaticais e não estava combinado entre si. Porém, uma vez que este foi combinado com o componente E, levou ao surgimento da linguagem humana, com todas as características necessárias. Estruturas hierárquicas de sintaxe já estão presentes nas palavras devido à integração dessas duas camadas. Esse padrão continua quando as palavras são combinadas para formar frases, bem como quando as frases são combinadas em sentenças. Portanto, a Hipótese de Integração postula que, uma vez que esses dois sistemas foram integrados, a linguagem humana apareceu totalmente formada e não exigiu estágios adicionais.

Evidência de estrutura hierárquica em palavras compostas

Uma árvore de estrutura de frase onde a frase "desbloquear" é junta ao sufixo -able.
Uma possível estrutura interna de 'desbloqueável' é mostrada. Nesta imagem, o significado é que algo pode ser desbloqueado. Adaptado de Nórega & Miyagawa. (39)
Uma árvore de estrutura de frase onde a frase lockable é anexada ao prefixo un-.
Uma possível estrutura interna de 'desbloqueável' é mostrada. Nesta imagem, o significado é que algo não consegue travar. Adaptado de Nórega & Miyagawa. (39)

As palavras compostas são um ponto de interesse especial com a Hipótese de Integração, pois são mais evidências de que as palavras contêm uma estrutura interna. A hipótese de integração analisa palavras compostas de maneira diferente em comparação com as teorias gradualistas anteriores do desenvolvimento da linguagem. Conforme mencionado anteriormente, na Abordagem Gradualista, as palavras compostas são consideradas parte de um estágio de protossintaxe para a linguagem humana. Nessa proposta de protolinguagem lexical , os compostos são desenvolvidos em um segundo estágio por meio da combinação de palavras únicas por uma operação n -ary recursiva rudimentar que gera estruturas planas. No entanto, a hipótese de integração desafia essa crença, alegando que há evidências para sugerir que as palavras são internamente complexas. Em inglês, por exemplo, a palavra 'destravável' é ambígua por causa de duas estruturas possíveis dentro dela. Pode significar algo que pode ser desbloqueado (desbloqueável) ou pode significar algo que não pode ser bloqueado (desbloqueado). Essa ambigüidade aponta para duas estruturas hierárquicas possíveis dentro da palavra: ela não pode ter a estrutura plana postulada pela Abordagem Gradualista. Com essa evidência, os defensores da Hipótese de Integração argumentam que essas estruturas hierárquicas em palavras são formadas por Merge, onde o componente L e o componente E são combinados. Assim, Merge é responsável pela formação de palavras e frases compostas. Essa descoberta leva à hipótese de que palavras, compostos e todos os objetos linguísticos da linguagem humana são derivados desse sistema de integração e fornece evidências contraditórias para a teoria da existência de uma protolinguagem.

Na visão dos compostos como "fósseis vivos", Jackendoff alega que a estrutura básica dos compostos não fornece informações suficientes para oferecer uma interpretação semântica. Portanto, a interpretação semântica deve vir da pragmática. No entanto, Nórega e Miyagawa notaram que essa alegação de dependência da pragmática não é uma propriedade de palavras compostas que é demonstrada em todas as línguas. O exemplo fornecido por Nórega e Miyagawa é a comparação entre o inglês (uma língua germânica) e o português brasileiro (uma língua românica). Os substantivos compostos do inglês podem oferecer uma variedade de interpretações semânticas. Por exemplo, o substantivo composto "homem do carro" pode ter vários entendimentos possíveis, tais como: um homem que vende carros, um homem que é apaixonado por carros, um homem que conserta carros, um homem que dirige carros, etc. Em comparação, o brasileiro O substantivo composto do português "peixe-espada" traduzido como "peixe-espada", tem apenas um entendimento de um peixe que se assemelha a uma espada. Consequentemente, ao olhar para as interpretações semânticas disponíveis de palavras compostas entre línguas germânicas e línguas românicas, as línguas românicas têm significados altamente restritivos. Essa descoberta apresenta evidências de que, de fato, os compostos contêm estruturas internas mais sofisticadas do que se pensava anteriormente. Além disso, Nórega e Miyagawa fornecem evidências adicionais para neutralizar a afirmação de uma protolinguagem por meio do exame de compostos VN exocêntricos. Conforme definido, um dos principais componentes para Mesclar é a propriedade de ser recursivo. Portanto, ao observar a recursão dentro de compostos VN exocêntricos de línguas românicas, isso prova que deve haver uma existência de uma estrutura hierárquica interna que Merge é responsável por combinar. Nos dados coletados por Nórega e Miyagawa, eles observam recursões ocorrendo em várias ocasiões em diferentes idiomas. Isso acontece em catalão, italiano e português brasileiro, onde um novo composto VN é criado quando um composto VN exocêntrico nominal é o complemento de um verbo. Por exemplo, referindo-se à tradução catalã de "limpadores de pára-brisa", [neteja [para-brises]] lit. limpa-pára-brisa, podemos identificar recursão porque [para-brises] é o complemento de [neteja] . Além disso, também podemos observar a ocorrência de recursão quando o substantivo de um composto VN contém uma lista de complementos. Por exemplo, referindo-se à tradução italiana de "anéis, brincos ou porta-joias pequenas", [porta [anelli, orecchini o piccoli monili]] lit. carregar-anéis-brincos-ou-joias pequenas, há recursão por causa do cordão de complementos [anelli, orecchini o piccoli monili] contendo o substantivo para o verbo [porta] .

A alegação comum de que os compostos são fósseis de linguagem freqüentemente complementa o argumento de que eles contêm uma estrutura plana e linear. No entanto, Di Sciullo forneceu evidências experimentais para contestar isso. Sabendo que há assimetria na estrutura interna dos compostos exocêntricos, ela usa os resultados experimentais para mostrar que efeitos de complexidade hierárquica são observados a partir do processamento de compostos NV em inglês. Em seu experimento, sentenças contendo compostos verbo-objeto e sentenças contendo compostos verbo-adjunto foram apresentadas a falantes de inglês, que então avaliaram a aceitabilidade dessas sentenças. Di Sciullo notou que trabalhos anteriores determinaram que os compostos verbo-adjunto têm uma estrutura mais complexa do que os compostos verbo-objeto porque os compostos verbo-adjunto requerem que a fusão ocorra várias vezes. Em seu experimento, havia 10 participantes falantes de inglês que avaliaram 60 frases em inglês. Os resultados revelaram que os compostos verbo-adjunto tiveram uma taxa de aceitabilidade mais baixa do que os compostos verbo-objeto tiveram uma taxa de aceitabilidade mais alta. Em outras palavras, as sentenças contendo os compostos verbo-adjunto foram vistas como mais "malformadas" do que as sentenças contendo os compostos verbo-objeto. As descobertas demonstraram que o cérebro humano é sensível às estruturas internas que esses compostos contêm. Uma vez que os compostos verbo-adjunto contêm estruturas hierárquicas complexas da aplicação recursiva de Merge, essas palavras são mais difíceis de decifrar e analisar do que os compostos verbo-objeto que abrangem estruturas hierárquicas mais simples. Isso é evidência de que os compostos não poderiam ser fósseis de uma protolinguagem sem sintaxe devido às suas complexas estruturas hierárquicas internas.

Interações entre os componentes E e L em frases da linguagem humana

Como mencionado anteriormente, a linguagem humana é interessante porque requer necessariamente elementos de ambos os sistemas E e L - nenhum deles pode ficar sozinho. Os itens lexicais, ou o que a Hipótese da Integração se refere como 'raízes', são necessários, pois se referem às coisas no mundo ao nosso redor. Itens de expressão que transmitem informações sobre categoria ou inflexão (número, tempo, caso etc.) também são necessários para moldar os significados das raízes.

a árvore de estrutura de frase para a frase "compre os livros"
Na frase "compre os livros", a categoria de cada frase é determinada pelo cabeçalho.

Torna-se mais claro que nenhum desses dois sistemas pode existir sozinho no que diz respeito à linguagem humana quando olhamos para o fenômeno da 'rotulação'. Esse fenômeno se refere à forma como classificamos a categoria gramatical das frases, onde a categoria gramatical da frase depende da categoria gramatical de uma das palavras dentro da frase, chamada de cabeça. Por exemplo, na frase "compre os livros", o verbo "comprar" é a cabeça, e chamamos toda a frase de verbo-frase. Há também uma frase menor dentro desse verbo-frase, uma frase determinante, "os livros" por causa do determinante "o". O que torna esse fenômeno interessante é que ele permite uma estrutura hierárquica dentro das frases. Isso tem implicações em como combinamos palavras para formar frases e, eventualmente, sentenças.

Os componentes lexicais não podem ser combinados diretamente uns com os outros, conforme mostrado por essas frases não gramaticais. Adaptado de Miyagawa et al. (45)

No entanto, este fenômeno de rotulagem tem limitações. Alguns rótulos podem ser combinados e outros não. Por exemplo, dois rótulos de estrutura lexical não podem ser combinados diretamente. Os dois substantivos, "Lucy" e "vestido" não podem ser combinados diretamente. Da mesma forma, nem o substantivo "lápis" pode ser mesclado com o adjetivo "curto", nem os verbos "querer" e "beber" não podem ser mesclados sem nada no meio. Conforme representado pelo esquema abaixo, todos esses exemplos são estruturas lexicais impossíveis. Isso mostra que há uma limitação em que as categorias lexicais podem ter apenas uma camada de profundidade. No entanto, essas limitações podem ser superadas com a inserção de uma camada de expressão no meio. Por exemplo, para combinar "John" e "book", adicionar um determinante como "-'s" torna essa combinação possível.

Outra limitação diz respeito à natureza recursiva da camada expressiva. Embora seja verdade que o CP e o TP podem se unir para formar a estrutura hierárquica, essa estrutura do CP TP não pode se repetir sobre si mesma: é apenas uma única camada de profundidade. Essa restrição é comum tanto à camada expressiva em humanos, como também no canto dos pássaros. Essa semelhança fortalece o vínculo entre o sistema E pré-existente que se supõe ter se originado no canto dos pássaros e as camadas E encontradas na linguagem humana.

Há uma alternância entre as camadas E e as camadas L para criar frases bem formadas. Adaptado de Miyagawa et al. (45)

Devido a essas limitações em cada sistema, onde as categorias lexicais e expressivas podem ter apenas uma camada de profundidade, a estrutura hierárquica recursiva e ilimitada da linguagem humana é surpreendente. A hipótese de integração postula que é a combinação desses dois tipos de camadas que resulta em uma estrutura hierárquica tão rica. A alternância entre as camadas L e E é o que permite que a linguagem humana alcance uma profundidade arbitrária de camadas. Por exemplo, na frase "Coma o bolo que Maria fez", a estrutura em árvore mostra uma alternância entre as camadas L e E. Isso pode ser facilmente descrito por duas regras de frase: (i) LP → L EP e (ii) EP → E LP. A recursão possível é vista claramente transformando essas regras de frase em notação de colchetes. O LP em (i) pode ser escrito como [L EP]. Então, adicionar uma camada E a este LP para criar um EP resultaria em [E [L EP]]. Depois, um LP mais complexo poderia ser obtido adicionando uma camada L ao EP, resultando em [L [E [L EP]]]. Isso pode continuar para sempre e resultaria nas estruturas profundas reconhecíveis encontradas na linguagem humana.

A operação dos componentes E e L na sintaxe das frases

Os componentes E e L podem ser usados ​​para explicar as estruturas sintáticas que compõem as sentenças em linguagens humanas. O primeiro componente, o componente L, contém palavras de conteúdo . Este componente é responsável por transportar a informação lexical que retransmite o significado subjacente por trás de uma frase. No entanto, as combinações que consistem apenas em palavras de conteúdo do componente L não resultam em sentenças gramaticais. Esse problema é resolvido por meio da interação do componente L com o componente E. O componente E é formado por palavras funcionais : palavras que são responsáveis ​​por inserir informações sintáticas sobre as categorias sintáticas das palavras componentes L, bem como informações morfossintáticas sobre digitação de cláusulas, pergunta, número, caso e foco. Uma vez que esses elementos adicionados complementam as palavras de conteúdo no componente L, o componente E pode ser pensado como sendo aplicado ao componente L. Considerando que o componente L é composto exclusivamente por informações lexicais e o componente E é composto apenas por informações sintáticas, eles existem como dois sistemas independentes. No entanto, para o surgimento de um sistema tão complexo como a linguagem humana, os dois sistemas dependem necessariamente um do outro. Isso se alinha com a proposta de dualidade semântica de Chomsky, que sugere que a linguagem humana é composta por esses dois componentes distintos. Dessa forma, é lógico por que a convergência desses dois componentes foi necessária para possibilitar a funcionalidade da linguagem humana como a conhecemos hoje.

Olhando para o seguinte exemplo retirado do artigo A hipótese de integração da evolução da linguagem humana e a natureza das línguas contemporâneas por Miyagawa et al., Cada palavra pode ser identificada como sendo um componente L ou um componente E na frase: Será que John comer pizza?

Em inglês, o componente E compõe a camada superior de uma árvore, que adiciona forma sintática à camada inferior, que compõe o componente L que fornece uma frase com seu significado lexical central. Adaptado de Miyagawa et al. (30)

As palavras componentes L desta frase são as palavras de conteúdo John, eat e pizza . Cada palavra contém apenas informações lexicais que contribuem diretamente para o significado da frase. O componente L é freqüentemente referido como base ou componente interno, devido ao posicionamento interno desse constituinte em uma árvore de estrutura de frase. É evidente que a sequência de palavras 'John eat pizza' não forma uma frase gramaticalmente bem formada em inglês, o que sugere que as palavras componentes E são necessárias para moldar e estruturar sintaticamente essa sequência de palavras. O componente E é normalmente referido como o componente externo que dá forma ao componente L interno, pois esses elementos se originam em uma posição que orbita ao redor do componente L em uma árvore de estrutura de frase. Neste exemplo, a palavra de função do componente E implementada é did . Ao inserir esta palavra, dois tipos de estruturas são adicionados à expressão: tipagem de tempo e cláusula. A palavra did é uma palavra usada para indagar sobre algo que aconteceu no passado, o que significa que adiciona a estrutura do pretérito a esta expressão. Neste exemplo, isso não muda explicitamente a forma do verbo, já que o verbo comer no pretérito ainda surge como comer sem nenhum marcador de tempo verbal adicional neste ambiente específico. Em vez disso, o espaço de tempo verbal pode ser pensado como sendo preenchido por um símbolo nulo (∅), pois esta forma de pretérito não tem nenhum conteúdo fonológico. Embora oculto, este marcador de tempo nulo é uma contribuição importante da palavra componente E did . Tempo à parte, a digitação de cláusulas também é transmitida por meio do componente E. É interessante que essa palavra funcional tenha aparecido na posição inicial da frase porque, em inglês, isso indica que a sequência de palavras se manifestará como uma pergunta. A palavra sim determina que a estrutura do tipo de oração para esta frase será na forma de uma pergunta interrogativa, especificamente uma pergunta sim-não . No geral, a integração do componente E com o componente L forma a frase bem formada, Será que John comeu pizza? , e é responsável por todas as outras expressões encontradas em línguas humanas.

Críticas

Abordagens teóricas alternativas

Decorrente da abordagem baseada no uso, o Modelo de Competição , desenvolvido por Elizabeth Bates e Brian MacWhinney , vê a aquisição da linguagem como consistindo em uma série de processos cognitivos competitivos que agem sobre um sinal linguístico. Isso sugere que o desenvolvimento da linguagem depende da aprendizagem e detecção de pistas linguísticas com o uso de mecanismos cognitivos gerais concorrentes, em vez de mecanismos inatos específicos da linguagem.

Do lado da biossemiótica , tem sido uma afirmação recente de que a construção de significado começa muito antes do surgimento da linguagem humana. Essa construção de significado consiste em processos cognitivos internos e externos. Assim, sustenta que tal organização de processos não poderia ter dado origem apenas à linguagem. De acordo com essa perspectiva, todos os seres vivos possuem esses processos, independentemente de quão ampla seja a variação, como um colocado para espécies específicas.

Foco em fluxo fraco superenfatizado

Quando se fala em biolinguística, existem dois sentidos que são adotados no termo: biolinguística forte e biolinguística fraca. O fraco é fundado na lingüística teórica que é generativista na persuasão. Por outro lado, a forte corrente vai além da comumente explorada lingüística teórica, com uma orientação voltada para a biologia, bem como outros campos de estudo relevantes. Desde o surgimento inicial da biolinguística até os dias atuais, tem havido um enfoque principalmente na corrente fraca, vendo pouca diferença entre a investigação em linguística generativa e a natureza biológica da linguagem, bem como fortemente dependente da origem chomskyana do termo.

Conforme expresso pelo professor pesquisador e linguista Cedric Boeckx, é uma opinião prevalente que a biolinguística precisa se concentrar na biologia para dar substância à teorização linguística que este campo se envolveu. Críticas particulares mencionadas incluem a falta de distinção entre linguística generativa e biolinguística, falta de descobertas relativas às propriedades da gramática no contexto da biologia e falta de reconhecimento da importância de mecanismos mais amplos, como propriedades biológicas não linguísticas. Afinal, só é vantajoso rotular a propensão para a linguagem como biológica se esse insight for usado para uma pesquisa.

David Poeppel, um neurocientista e lingüista, observou adicionalmente que se a neurociência e a lingüística forem erradas, há o risco de "esterilização cruzada interdisciplinar", argumentando que há um problema de incompatibilidade de granularidade. Devido a isso, os diferentes níveis de representações usados ​​na linguística e nas ciências neurais levam a metáforas vagas que ligam as estruturas do cérebro aos componentes linguísticos. Poeppel e Embick também introduzem o Problema de Incomensurabilidade Ontológica , onde os processos computacionais descritos na teoria linguística não podem ser restaurados para processos computacionais neurais.

Uma crítica recente da biolinguística e do "biologismo" nas ciências da linguagem em geral foi desenvolvida por Prakash Mondal, que mostra que existem inconsistências e incompatibilidades categóricas em quaisquer restrições de ponte putativas que pretendem relacionar estruturas e processos neurobiológicos às estruturas lógicas da linguagem que têm um caráter cognitivo-representacional.

Outros campos relevantes

Tema Descrição Relevância para a Biolinguística
Neurolinguística O estudo de como a linguagem é representada no cérebro; intimamente ligado à psicolinguística, aquisição da linguagem e a localização do processo de linguagem. Mecanismos fisiológicos pelos quais os processos cerebrais em formação relacionados à linguagem.
Aquisição de linguagem A maneira como os humanos aprendem a perceber, produzir e compreender a linguagem; guiado pela Gramática Universal proposta por Chomsky; capacidade das crianças de aprender propriedades da gramática a partir de dados linguísticos empobrecidos. Crescimento e maturação da linguagem nos indivíduos; processos evolutivos que levaram ao surgimento da linguagem; pobreza do estímulo .
Tipologia Lingüística A análise, comparação e classificação de línguas de acordo com suas características estruturais comuns; Identifica semelhanças e diferenças nas línguas do mundo; sugere que as línguas podem não ser completamente aleatórias.
Sintaxe As regras que governam a organização gramatical de palavras e frases. Gramática gerativa ; pobreza do estímulo; dependência de estrutura em que uma frase é influenciada em sua estrutura e não apenas na ordem das palavras.
Aprendizagem de Gramática Artificial A intersecção entre psicologia cognitiva e linguística Processos cognitivos humanos e detecção de padrões em um contexto de aprendizagem de línguas; como os humanos aprendem e interpretam a gramática.

Pesquisadores em Biolinguística

Veja também

Referências

Conferências

links externos