ответы на билеты по информатике
.pdfВопрос 1
Информатика как наука и вид практической деятельности
Методология информатики как науки: объект, предмет, задачи, методы исследования
Структура теоретического ядра информатики (5 разделов)
Определение информатики как науки
Объект изучения: информационныепроцессывприродеиобществе Предмет: основныесвойстваизакономерностиинформационныхпроцессов, особенностипроявленияинформационныйпроцессоввинформационныхсредах различнойсредыиметодыисредстваавтоматизацииинформационныхпроцессов. Задачи: разработкаформализованныхинформационныхмоделей информационныхпроцессовспомощьюматематики,какязыкавсехнаук, разработкаинформационныхтехнологийпереработкиинформациидляразличных сферчеловеческойдеятельности.
Методы исследования: системно-информационныйанализ,информационное моделированиеивычислительныйэксперимент.
1)Теоретическаяинформатиказанимаетсяразработкойматематических моделейинформационныхпроцессов.Внеѐвходяттеорияинформатики,
теориякодирования,теорияалгоритмовитеорияавтоматов.
1)Вычислительнаятехника– разработкаобщихпринциповпостроения вычислительныхсистем.
2)Программирование– изучениеспособовсоставления,проверкии улучшенияпрограммдляЭВМ.
3)Информационныесистемы– разработкасистемдляавтоматизации информационныхпроцессовсиспользованиемвычислительнойтехникии компьютерныхсистем.
4)искусственныйинтеллект– разработкакомпьютерныхпрограмм.
Информатика– фундаментальнаяестественнаянаука,изучающаяобщие свойстваинформации,процессы,методыисредстваеѐобработки(сбор, хранение,перемещение,выдача).
Вопрос 2
Основные понятия информатики: информация, информационный процесс
Философское определение информации (разнообразие, отражение)
Свойства информации (запоминаемость, передаваемость и т.д.)
Понятие информационного процесса
Базовые информационные процессы (в чем их суть)
Филопределение.Информация– этоотраженноеразнообразиезаключенногов
структуреобъекта(1937г.)Информацияпроявляетсятогда,когдахотябы«2элемента»в совокупностиразличаются.
Отражение– свойствоприсущеелюбомуматематическомуобъектуврезультате взаимодействиявоспроизводитьисохранятьвсвоейструктуресвойстваиструктурудругих систем. Воспроизведениевсвоейструктуреструктуры исвойствдругойсистемы(тоесть разнообразие)иестьпередачаинформации.
Свойства информации:запоминаемость,передаваемость,воспроизводимость,преобразуемость, стираемость.
1)Запоминаемость– одноизсамыхважнейшихсвойств.Именносзапоминаемой (микроскопической)информациеймыимеемделовреальнойпрактике.
2)Передаваемостьинформацииспомощьюкашаловсвязихорошоисследованаврамках теорииШеннона.Уданномслучаеимеетсяввидунесколькоинойаспект– способность информацииккопированию.
3)Воспроизводимостьинформациитесносвязанасеѐпередаваемостьюинеявляетсяеѐ независимымбазовымсвойством.Воспроизводимостьхарактеризуетнеиссякаемостьи неистощимостьинформации,тоестьчтоприкопированииинформацияостается тождественнойсамойсебе.
4)Преобразуемость– фундаментальноесвойствоинформации.Оноозначает,что информацияможетменятьспособиформусвоегосуществования.Копируемостьесть разновидностьпреобразованияинформации,прикоторомѐколичествонеменяется.В общемслучаеколичествоинформациивпроцессахпреобразованияменяется,но возрастатьнеможет.
5)Свойствостираемостиинформациитакженеявляетсянезависимым.Оносвязаностаким преобразованиеминформации(передачей),прикоторомеѐколичествоуменьшаетсяи становитсяравнымнулю.
Процесс– сменасостоянийобъектоввовремени.
Информационныйпроцесс– этопроцесспреобразованияинформации,врезультатекоторого меняетсясмыслилиценность.
Базовые информационные процессы (в чем их суть)
Восприятие,передача,хранение, обработка.
Вопрос 3
Измерение информации: вероятностный подход
зависимость количества информации в сообщении от вероятности получения сообщения (формула, пример задачи)
формула Хартли (в каких случаях используется, пример задачи)
определение бита с точки зрения вероятностного подхода
среднее количество информации, приходящееся на одно из множества сообщений. Энтропия системы. Формула Шеннона (пример задачи)
Связь информации и энтропии (формула, пример)
Вматематическойтеорииинформацииисходятизтого,чтовнекоторомсообщениеXt количествоинформацииL (xt)зависитнеотеѐконкретногосодержания,степениважностии т.д.,аотвероятностиполученияэтогосообщенияP (xt).
ВероятностьсобытияАравноотносительночислаисходов,благоприятствующихсобытию А(m)кчислувсехравновозможныхисходов( ). Суммавероятностивсехвозможныхисходовопытаравна1.
Чемменьшевероятностьполучитьсообщение,тембольшеинформациисодержитсяв
нем. Есливсесообщенияотданногоисточникапоступаютсодинаковойвероятностью,то
вероятностьодногоизN равновероятныхсобытий, аколичествоинформациивэтомсообщении определяетсяпоформуле:
ФормулаХартли.(1928г).Зависимостьколичестваинформациивсообщенииотколичества равновероятныхсообщения.
1бит– этоколичествоинформации,получаемоеприполученииодногоиздвух
равновероятныхсообщений.( |
) |
|
|
Втеорииинформациичащевсегонеобходимознатьнеколичествоинформации, |
содержащеесявотдельномсообщении,асреднееколичествоинформациинаодноизмножества передаваемыхсообщений,создаваемыхсистемой(источникомсообщений),т.е.энтропию системы.H(x) – энтропиясистемы.
ФормулаШеннона ( )
N – количестворазныхсообщений,которыеможетгенерироватьсистема. Pi – вероятностьпоявлениянекоторогосообщения..
Энтропия– численнаямеранеопределенностинашихзнанийосостояниинекоторойсистемы (источникасообщений).
Количествоинформации(I),полученноеизсообщенияосостояниисистемы,равно разностинеопределенностейнашихзнанийосостояниисистемы,изменившихся«до»и «после»получениясообщения.( )
Еслисообщениеполностьюснимаетнеопределенностьотносительносостояниясистемы,то количествоинформациивэтомсообщениичисленноравноэнтропиисистемыдополучения сообщения. Пример. Сколькоинформациисодержитсявсообщенииотом,чтонаигральнойкости
выпалочетноечислоочков? Решение.
Вопрос 4.
какой принимается вероятность исходов опыта с системой
от чего зависит количество информации об одном исходе
определение количества информации по объемному подходу (формулы, пример)
определение бита по объемному подходу
Объѐмныйподходиспользуетсядляизмеренияколичества информациивтексте, представленномввидепоследовательностисимволовнекоторогоалфавита.
Количествосимволоввалфавитеназываетсямощностьюалфавита. Предполагается,чтовсесимволывтекстевстречаютсясравнойвероятностью.
Определениеколичестваинформации
1)Вычисляютколичествоинформации,котораянесеткаждыйсимволтекста (Информационныйвессимвола)i=
2)Общееколичествоинформации(информационныйобъѐмтексте)определяется каксуммаинформационныхвесоввсехсимволов,составляющихтекст.
I=K*i,гдеK – количествосимволоввтексте,I – информационныйвес,I – объѐм. Пример:
C позицииобъѐмногоподходакизмерениюинформации1бит– этоинформационный вессимволаиздвоичногоалфавита.
Вопрос 5
Представление текста в памяти ЭВМ
кодировочные таблицы ASCII и Unicode
структура таблиц ASCII и Unicode
информационный вес символа в ASCII и Unicode
ввод символов с клавиатуры
Языктекстовогопредставленияопираетсянаалфавит– упорядоченныйнабордопустимых символов. Длякомпьютерногопредставлениятекстатребуетсявзаимно-однозначносопоставитьбуквы алфавитаидвоичныекоды.Таблицакодировки– таблица,содержащаяупорядоченный переченьсимволов,всоответствиискоторойпроисходитпреобразованиесимволавего двоичныйкодиобратно. ИсторическипервойвозниклакодировочнаятаблицаASCII,с мощностьюалфавита256символов.Отсутствиеединогостандартаразмещения кириллическихсимволоввтаблицеASCII приводиткпроблемамскодировками. таблицаUnicode (1993)снижаетограничениеоднобайтовыхтаблиц– невозможность одновременногоиспользованиянесколькихязыков.
ИнформационныйвессимволавASCII – 8бит,вUnicode – 32 бита.
Вводсимволовсклавиатуры.
1)Вовремянажатияклавишзамыкаютсяконтактыиформируетсяскан-код(номер клавиши),которыйпредаетсянаконтроллерклавиатуры.
2)Контроллерставитвсоответствиескан-кодикодизустановленнойкодировочной таблица,спомощьюспециальнойпрограммы.
3)Нажатиебуквенноцифровойклавишипосылаетсигналнавидеокарту,изПЗУ (постоянноезапоминающееустройство)которойвыбираетсякодзнакогенерациидля отображениясимволанаэкран.
Вопрос 6
Ввод, оформление и структурирование текста
-Правила компьютерного набора текста -Виды программ для набора текста -Шрифт, гарнитура, стиль, виды шрифтов -Структурирование текста
1.Всесловаразделяютсяоднимпробелом!
2.Знакипрепинанияпримыкаюткпредыдущемуслову. 3.Скобкиикавычкивсехвидовпримыкаюткпервомуипоследнемуслову,заключеннымвних. 4.Текстразрываетсятольковконцеабзаца. 5.Отступывначалеабзацаделаютсяспомощьюлинеек,анепробелами.
|
Программыпонаборутекстаразделяютсяна: |
1. |
Текстовыередакторы– программы,позволяющиенабратьтекст,нонеоформитьегодля |
|
печати(Блокнот,Notepad++, PSPad) |
2. |
Текстовыепроцессоры– сложныепрограммныекомплексы,позволяющиевыполнить |
|
оформлениетекста(форматирование),сопроводитьегографическимиматериаламиит.д. |
|
(Word, Open Office, Writer) |
|
Шрифт– графическийрисунокбукв,цифрисимволов,обладающийобщимидлявсех |
символовстилистическимиособенностямиизображения.Основныепараметры: Кегель– размершрифта,Начертание– параметрплотностишрифта(светлый, полужирный,жирный),Гарнитура– совокупностьвсехвозможныхразмерови вариантовнаписанияшрифтов(Arial, Verdana – сзасечками, Times New Roman – беззасечек).Засечки– небольшиеэлементынаконцахштриховбукв.
Видышрифтов:
1.Рубленныешрифты(преимущественноугловоесоединениештрихов,беззасечек,лучше воспринимаетсясэкрана)
2.Антиквенныйшрифт(соединениемеждуштрихамисглажены,обязательнызасечки, лучшевоспринимаетсявпечатныхтекстах)
3.Акцидентные(оформительсткие,имеютдекоративныеэлементы,прибольшом количестветекстаутомляетглаза)
Структурированиетекста
Абзац- единицапростарнственногоразмещениятекста.
1.Выравнивание– правиларасположениябукввстрокеабзаца.
2.Отступы– откраевполосынабора.
3.Абзацныйотступ.
4.Интервалы.
Вопрос 7.
Представление целых чисел в в памяти ЭВМ
виды целых чисел в компьютере
алгоритм получения прямого кода целого числа без знака
алгоритм получения дополнительного кода целого числа со знаком (зачем нужен дополнительный код)
Наибольшуюпоследовательностьбит,которуюпроцессорЭВМможетобрабатыватькакединое целое,называютмашиннымсловом.Разрядывмашинномсловенумеруютсясправаналево, начинаяс0.
Всецелыечиславкомпьютереразделяютсяна:
-числабеззнака(толькоположительные)
-числасознаком(+и-)
0встаршемразряде– положительное,1– отрицательное.
Дляпредставлениявпамятицелогодесятичногочислабеззнакаиспользуетсяпрямойкод:
1.Числопереводитсявдвоичнуюсистему.
2.Двоичнуюзаписьслевадополняюттакимколичество0,сколькотребуеттипданных числа.
Пример:
Дляпредставлениявкомпьютерецелыхчиселсознакомиспользуютдополнительныйкод. Дополнительныйкоднужендлятого,чтобызакодироватьзнак«-»исвестипроцедуру вычитанияксложению.Дополнительныйкодцелогоположительногочисласознаком совпадаетсегопрямымкодом.
1)Записатьпрямойкодмодулячисла(перевестивдвоичнуюсистему)
2)Инвертироватьего.
3)Полученныйобратныйкодсложитьс1.
Пример:
Обратный: есличислоположительное,топростоперевестиегокодвдесятичнуюсистемусчисления еслиотрицательное,необходимовыполнитьследующийалгоритм:
1)Вычестьизкода1
2)инвертироватькод
3)перевестивдесятичнуюСС
4)полученноечислозаписатьс«-»
Вопрос 8 Представление вещественных чисел в памяти ЭВМ
проблема представления вещественных чисел в памяти ЭВМ
нормализованная форма вещественных чисел (как ее получить)
какая информация о вещественном числе хранится в компьютере
структура хранения вещественного числа в памяти ЭВМ
алгоритм получения представления десятичного вещественного числа в
памяти ЭВМ
Вещественныечисла(конечныеибесконечныедесятичныедроби)хранятсявкомпьютере в форматесплавающейточкой,котораяопираетсянанормализованнуюформузаписичисел. Нормализованнаяформазаписичисел Вдвоичнойсистеме:
А=1,М*
М– мантисса(еѐцелаячасть=1)
P – порядок,записанныйвдесятичнойсистеме. Призаписинормализованногочиславкомпьютерехранятсязначениезнакачисла,мантиссыи смещѐнногопорядка. Впамятикомпьютерахранитсянесамозначениепорядка,азначениепорядкасосмещением. Порядокможетбытьсознаком+или– Смещѐнныйпорядокимееттолькополодительноезначение смещениевыбираюттак,чтобыминимальномузначениюистинногопорядкасоответствовал0. Длязаписивнутреннегопредставлениявещественногочисланеобходимо:
1)Привестимодульданногочиславдвоичнуюсистемусчисления.
2)Нормализоватьдвоичноечисло,т.е.записатьввиде1,М*
3)Прибавитькпорядку+127(дляsingle)+1023(дляDouble)иперевестиполученное числовдвоичнуюСС.
4)Учитываязнакчисла,выписатьегопреставлениев4х(8ми)байтовоммашинномслове (дополнивмантиссунеобходимымколичествомнулей)
Вопрос 9 Дискретное представление графической информации в памяти ЭВМ
понятие дискретной и неприрывной информации
суть процедур дискретизации и квантования
растровая и векторная дискретизация графических изображений
Вслучае,когдапараметр сигналапринимаетпоследовательноевовремениконечноечисло значений,сигналназываетсядискретным.Информация,передаваемаяисточником,вэтом случаеназываетсядискретной.(чтениекниги)Еслижеисточниквырабатываетнепрерывное сообщение,соответствующаяинформацияназываетсянепрерывной.(человеческаяречь) Графическоеизображение– совокупностьсветовыхсигналовнаплоскости. Чтобысохранитьинформациюографическомизображении,егоподвергаютдискретизациии квантованию.Придискретизациинепрерывнымвременнымилипространственным характеристикиобъектаставятсявсоответствиедискретноемножествоэлементов. Приквантованиинепрерывныйдиапазонвозможныхзначенийнекоторойхарактеристики элементапреобразуетсявконечноемножествочисел.Обепроцедуры приводяткпотеричасти информации.
Прирастровойдискретизацииграфическойинформациинаизображениенакладываетсясетка (растр),каждаяячейкакоторой(пиксель)рассматриваетсякакдалеенеделимыйфрагмент, определенныйнабороматрибутов:координатами,формой,размеромицветом.Процедура разбиенияизображениенапикселиназываетсярастеризациейилиоцифровкойизображения. Размерсеткирастра,задаваемыйввидеm*n,гдеm – числопикселейпогоризонтали,n – число пикселейповертикали,называетсяразрешеннойспособностьюилиграфическимразрешением экрана.
Векторнаядискретизация– эторазбиениеизображениянанаборграфическихпримитивов (прямая,кривая,окружностьит.д.),которыеописываютсяматематическимиформуламис использованиемсистемыкоординат.
Впамятикомпьютерахранятчисла,определенноеместоположение,форму,толцину,цвет линий.Построениевекторногопредставления- векторизацияизображения.
Вопрос 10
Кодирование цвета в памяти ЭВМ
Математическая модель цвета: законы Грассмана
цветовые модели RGB, CMYK, HSB (базовые цвета, цвет какого объекта описывает (отражающего или излучающего))
Связь глубины цвета и количества цветов в изображении
Математическийаппараттрехкомпонентнойтеориицвета.(законыГрассмана)
Законтрехмерности:спомощьютрехвыбранныхлинейнонезависимыхцветовможно однозначновыразитьлюбойцвет(цветалинейнонезависимые,еслиникакойизнихнельзя получитьпутемсмешиванияостальных) Законнепрерывности:принепрерывномизмененииизлучениицветсмешиваниятакжеменяется непрерывно(клюбомуцветуможноподобратьбесконечноблизкийцвет) Законаддитивности:всецветаравноправны.Разложениецветовможновыполнитьклюбому цвету. ЗаконыГрассманаустанавливаютобщиесвойстваматематическоцмоделицветов:
1.цвета можнорассматриватькакточкииливекторывтрехмерномцветовомпространстве
2.абсолютночерномуцветувсегдасоответствуетточка(0;0;0)
3.точкипространства,соответствующиецветамвидимогоспектра,образуютв пространственекотороевыпуклоетело.
Цветовая модельRGB – описаниецветаизлучающегообъекта.
Основныецвета:красный,зелѐный,синий.(телевизоры,мониторы,проекторыит.д.) ЦветоваямодельCMYK – описаниецветаотражающегообъекта. основныецвета:голубой,пурпурный,желтый.(набумаге)
ЦифроваямодельHSB – модельцветовосприятиячеловека.Вэтоймоделицветполучаетсяиз спектральногодобавленияопределенногопроцентабелойичернойкрасок.
Hue (цветовойтон)– одинизцветовспектральногоразложенияцвета
Saturation (насыщенностьцвета)– чистотацвета(определенный%добавленнойкцветыбелок краски)
Brightness (яркость)– освещѐнностьилизатемненностьцвета(определенный%добавления чернойкраски)
Глубинацвета– количествобит,использующихсядлякодированияцвета.
N=,где N – количествоцветов,i – глубинацвета.Наиболеераспространено:4,8,16,24 битнаточку.