BirdsGuide
Конспект лекций по этологии
Страница 44
Помимо естественного языка (на котором мы говорим), в человеческом обществе есть ряд иных знаковых систем, или языков. Таковы, например, научные языки: языки логики, математики, химии, радиоэлектроники, языки программирования; языки нотных записей, знаки и правила дорожного движения и др. В качестве знаковых систем можно рассматривать искусство: музыку и хореографию, мир архитектуры и моды, гербовые знаки, эмблематику, церемонии. Знаки, составляющие знаковые системы человека, могут быть вербальными (словесными), жестовыми, графическими, образными, формализованными, иконическими, индексальными и символическими. Характеризуя знаковые системы, принято раскрывать способы их формального воплощения, закономерности синтактики, семантики и прагматики.
Проблема человеческих “языков” по отношению к естественному языку - это проблема “двойного перевода”: с естественного языка на иные языковые системы и наоборот . Основное отличие языка человека от иных знаковых систем человека выразил лингвист Р.Якобсон: “У естественного и формализованного языка существует такой важный тип синтаксической структуры, который невыразим иными средствами - это суждения общие и особенно суждения отождествляющие. Именно это преимущество обеспечивает могущество и главенство языка в человеческом мышлении и познавательной коммуникации”.
Важным свойством знаковой системы выступает её способность быть переведённой в другую знаковую систему.
Информация (лат. информаре - изображать) - сведения, которые снимают существовавшую до их получения неопределённость (К.Шеннон, 1948). Для живых организмов информация - “энергетически слабое взаимодействие, воспринимаемое организмом как закодированное сообщение о возможности многократно более мощных влияний на него со стороны других организмов или факторов среды и вызывающее его ответную реакцию; отражение разнообразия, то есть воспроизведение разнообразия одного объекта в другом объекте в результате их взаимодействия”.
В числе математических дисциплин, соприкасающихся с языком, находится теория информации, которую ее основоположник, американский ученый К. Шеннон, определил так: “Теория информации изучает процесс передачи информации по каналам связи”, где передача мыслится по схеме: источник - передатчик - канал - приемник - получатель.
Для уяснения этого процесса вводятся понятия: а) код - произвольная система заранее установленных знаков или символов; б) вероятностью называется степень соответствия принятого сообщения переданному сообщению; в) алфавит - набор знаков кода; г) текст - последовательность знаков данного сообщения; д) канал - среда, по которой передаются знаки кода, с учетом помех и “шумов”; е) сама информация измеряется особой единицей, которая называется бит, что значит «двоичная единица». Бит - количество информации, получаемое при выборе из двух равновероятных, равновозможных сообщений; ж) избыточность - это разность между теоретически возможной передающей способностью какого-либо кода и средним количеством передаваемой информации. Избыточность выражается в процентах к общей передающей способности кода; например, передача каждого сигнала дважды создает избыточность в 50%; з) энтропия - мера недостающей информации и степень неопределенности сообщений; если вероятность равна 1, то энтропия равна 0, если вероятность равна 0, то энтропия равна бесконечности; и) алгоритм - совокупность точных правил описания, кодирования или перекодирования какой-либо информационной системы.
В теории информации К.Шеннона “отвлекаются от человеческого аспекта в информационных процессах, в частности от содержания (смысла) сообщений, от их ценности для получателя”.< .>Определение количественной меры определения информации повлекло за собой “использование информационных методов в социологии, лингвистике, биологии и других науках”.
Контекст (лат. контэкстум - тесная связь) -”законченный в смысловом отношении отрывок письменной или устной речи, необходимый для определения смысла отдельного входящего в него слова или фразы” (***).