Histoire de la notion d'« information ». Informatique historique Informations historiques

    KHARKOV ville russe. Elle a été fondée dans les années 1630. Les petits Russes qui ont fui les Polonais de la rive droite du Dniepr s'y sont installés. Le tsar Alexeï Mikhaïlovitch y construisit une forteresse et fonda la voïvodie de Kharkov en 1656.

    DNEPROPETROVSK - fondée par Catherine II en 1776 et s'appelait Ekaterinoslav.

    SUMY - fondée par le tsar Alexei Mikhailovich au plus tard en 1655. Le tsar a autorisé les réfugiés de la Petite Russie, tués par les Polonais, à s'y installer.

    POLTAVA était un centre de la Petite Russie pro-russe au XVIIe siècle. Pour cela, le traître Hetman Vygovsky a attaqué la ville et a vendu ses habitants en esclavage aux Tatars de Crimée.

    LUGANSK - fondée en 1795, lorsque Catherine II fonda une fonderie de fer sur la rivière Lugan. Des habitants des provinces du centre et du nord-ouest de la Russie sont venus à Lougansk pour y travailler.

    KHERSON - fondée par Catherine II en 1778 pour la construction de la flotte russe. La construction a été réalisée par Potemkine.

    DONETSK - fondée par Alexandre - 2 en 1869 lors de la construction d'une usine métallurgique à Yuzovka.

    NIKOLAEV - fondé par Catherine - 2 en 1789. A cette époque, Potemkine y construisait le navire Saint-Nicolas.

    ODESSA - fondée par Catherine II en 1794 sur le site d'une forteresse construite un peu plus tôt par Suvorov.

    TCHERNIGOV est l'une des plus anciennes villes russes ; elle existait au début du Xe siècle. En 1503, elle fut rattachée à la Russie. En 1611, les Polonais la détruisirent et prirent ce territoire aux Russes. Mais en 1654, Tchernigov est revenu à la Russie et en fait depuis lors partie intégrante.

    SIMFEROPOL - fondée par Catherine II en 1783 sur le site d'une forteresse construite plus tôt par Souvorov. Potemkine a construit la ville.

    MARIUPOL - fondée en 1778 par Catherine - 2 Elle y installa des immigrants grecs de Crimée.

    Krivoï Rog - fondée par Catherine II en 1775. Et elle a connu son développement industriel au cours époque soviétique, comme base de la métallurgie.

    ZAPOROZHIE - fondée par Catherine II en 1770 et s'appelait Alexandrovsky.

    KIROVOGRAD - a été fondée en 1754 par l'impératrice russe Elizaveta Petrovna comme forteresse pour protéger les frontières sud de l'Empire russe contre les Tatars. Cela s'appelait Elisavetgrad.

    CRIMÉE - Annexion de la Crimée à l'Empire russe (1783) - inclusion du territoire du Khanat de Crimée à la Russie après l'abdication de cette dernière Khan de Crimée Shahina Giray. En 1784, la région tauride est constituée sur le territoire annexé.

    Et déjà au printemps, des mesures urgentes ont été prises pour sélectionner un port pour la future flotte de la mer Noire, sur la côte sud-ouest de la péninsule. Catherine II, par son décret du 10 février 1784, ordonna d'y fonder « un port militaire avec une amirauté, un chantier naval, une forteresse et d'en faire une ville militaire ». Au début de 1784, un port-forteresse fut fondé, auquel Catherine II donna le nom de Sébastopol.

    Le 28 juin 1783, le manifeste de Catherine II fut finalement rendu public lors du serment solennel de la noblesse de Crimée, prêté personnellement par le prince Potemkine.
    D'abord, les Murzas, les beys et le clergé ont prêté allégeance, puis la population ordinaire.
    Les célébrations étaient accompagnées de rafraîchissements, de jeux, de courses de chevaux et d'un coup de canon.

1 Concepts de base et bref historique de l'informatique

1.1 Concepts de base de l'informatique

Au sens large, l'informatique est la science du calcul, du stockage et du traitement de l'information, y compris les disciplines liées à la technologie informatique. Il est similaire aux termes anglais Computer Science aux États-Unis ou Computing Science au Royaume-Uni.

Les termes de base utilisés dans le domaine de l'informatique sont réglementés par la norme interétatique GOST ISO/IEC 2382-99 « Technologies de l'information ». Dictionnaire. Partie 1. Termes de base. Entrée en vigueur le 01/07/2000."

Vous trouverez ci-dessous une courte liste des définitions énoncées dans la norme.

L'information (dans le traitement de l'information) est une connaissance d'objets tels que des faits, des événements, des phénomènes, des objets, des processus, des idées, y compris des concepts qui ont une signification spécifique dans un certain contexte.

L'information est caractérisée par les propriétés suivantes :

1) fiabilité ;

2) pertinence ;

3) exhaustivité ;

4) coût ;

5) volumes ;

6) mode de présentation.

Les données sont des informations présentées sous une forme formalisée adaptée à leur transmission, leur interprétation et leur traitement.

Le texte est une forme de représentation de données sous forme de symboles, de signes, de mots, d’expressions, de blocs, de phrases, de tableaux et d’autres moyens symboliques destinés à transmettre un sens, dont l’interprétation repose uniquement sur la connaissance des langues naturelles ou artificielles du lecteur.

Traitement de l'information - exécution d'actions par le système sur l'information.

Traitement automatique des données - le système effectue des actions sur les données : opérations arithmétiques ou logiques sur les données, combinaison ou tri de données, diffusion ou compilation de programmes, ou actions sur du texte, telles que l'édition, le tri, la fusion, le stockage, la recherche, l'affichage ou l'impression.

Matériel(Matériel) - tout ou partie des composants physiques d’un système informatique. Par exemple, les ordinateurs, les périphériques.

Logiciel ( logiciel) - tout ou partie des programmes,

procédures, règles et documentation connexe du système de traitement des données. Logiciel et matériel outil - un ensemble ordonné de commandes et associées

données avec celui-ci, stockées de telle manière qu'elles soient fonctionnellement indépendantes de la mémoire principale, généralement dans un périphérique de stockage en lecture seule.

La mémoire (dispositif de stockage) est un dispositif fonctionnel dans lequel des données peuvent être placées, dans lequel elles peuvent être stockées et à partir duquel elles peuvent être récupérées.

Automatique – Désigne un processus ou un équipement qui, sous certaines conditions, fonctionne sans intervention humaine.

Centre informatique(centre de traitement de données) - installations, y compris le personnel, le matériel et les logiciels, organisées pour fournir des services de traitement de l'information.

Système de traitement des données(système informatique) - un ou plusieurs ordinateurs, équipements périphériques et logiciels assurant le traitement des données.

Système de traitement de l'information- un ou plusieurs systèmes et appareils de traitement de données, tels que des équipements de bureau ou de communication, qui assurent le traitement de l'information.

Système d'Information- un système de traitement de l'information ainsi que les ressources associées de l'organisation, telles que les ressources humaines, techniques et financières, qui fournissent et distribuent l'information.

Schéma fonctionnel- un schéma d'un système dans lequel les principales parties ou fonctions sont représentées par des blocs reliés par des lignes montrant la relation entre les blocs.

aux fonctions, aux interactions physiques, à l'échange de signaux et à d'autres caractéristiques qui leur sont inhérentes.

Échange de données - transfert de données entre appareils fonctionnels conformément à un ensemble de règles permettant de contrôler le mouvement des données et de coordonner l'échange.

Appareil fonctionnel- un élément matériel et logiciel ou logiciel et matériel conçu pour effectuer une tâche spécifique.

Le virtuel est la définition d'un dispositif fonctionnel qui semble réel, mais dont les fonctions sont assurées par d'autres moyens.

Un support de données est un objet matériel dans lequel ou sur lequel des données peuvent être écrites et à partir duquel elles peuvent être lues.

Dispositif de traitement - Un dispositif fonctionnel composé d'un ou plusieurs

processeurs et leur mémoire interne.

Ordinateur - Un appareil fonctionnel qui peut effectuer calculs complexes, y compris un grand nombre de opérations arithmétiques et logiques, sans intervention humaine.

Ordinateur numérique - un ordinateur contrôlé par des programmes stockés en mémoire interne, pouvant utiliser la mémoire partagée pour tout ou partie des programmes et tout ou partie des données nécessaires à l'exécution des programmes ; exécuter des programmes écrits ou spécifiés par l'utilisateur ; effectuer des manipulations spécifiées par l'utilisateur sur des données discrètes présentées sous forme de nombres, y compris des opérations arithmétiques et logiques : et exécuter des programmes modifiés pendant l'exécution.

1.2 Bref historique du développement des technologies de l'information

L'histoire du développement des outils informatiques est étroitement liée au développement de la science. Il existe trois directions dans le développement des technologies de l'information :

1) amélioration du matériel;

2) développement de la théorie de l'informatisation, de l'algorithmique et de la programmation ;

3) construction d'un espace d'information par le biais des télécommunications.

1.2.1 Développement matériel

Même dans l'Antiquité, des dispositifs mécaniques ont été créés pour faciliter l'exécution des calculs numériques : toutes sortes de bouliers mécaniques. À la fin du Moyen Âge, des ordinateurs mécaniques ont été créés - des machines à additionner. Tous ces appareils sont classiquement appelés ordinateurs mécaniques de génération zéro. La durée de cette étape est de L'Egypte ancienne jusqu'au milieu du 20e siècle. Dans ce cas, des dispositifs mécaniques ont été utilisés pour automatiser les opérations de calcul : ensembles, machines à calculer mécaniques et règles à calcul.

Figure 1.1 – Modèle fonctionnel d'un ordinateur mécanique par Charles Babbage

Cependant, la création d'ordinateurs programmables à part entière n'est devenue possible qu'avec le développement de la radioélectronique, des mathématiques et de la théorie de l'information.

Figure 1.2 - Dispositifs mécaniques : machine à calculer et règle à calcul L'histoire de l'amélioration du matériel est classiquement divisée en 5 étapes : La première étape est associée à l'utilisation de tubes électroniques et

relais. Les ordinateurs de cette étape étaient destinés à effectuer des calculs scientifiques, généralement dans le domaine militaire.

Figure 1.3 – Le tube électronique et le relais électrique sont apparus et ont été utilisés dans les calculs scientifiques avant la Seconde Guerre mondiale

ordinateurs analogiques mécaniques et électriques. En particulier, les phénomènes physiques ont été modélisés sur des ordinateurs analogiques avec des valeurs tension électrique et actuel. Les premiers ordinateurs numériques ou ordinateurs électroniques (ordinateurs) sont apparus pendant la Seconde Guerre mondiale.

Le premier prototype fonctionnel de l'ordinateur Z1 a été créé par l'Allemand Konrad Zuse en 1938. C'était un ordinateur mécanique binaire avec un entraînement électrique et opportunité limitée programmation à l'aide du clavier. Le résultat des calculs dans le système décimal était affiché sur le panneau de la lampe. L'ordinateur suivant de Zuse, le Z2, était basé sur des relais téléphoniques et lisait les instructions à partir d'un film 35 mm perforé. En 1941, Zuse créa le premier ordinateur programmable fonctionnel, le Z3, utilisé pour concevoir une aile d'avion. Les Z1, Z2 et Z3 furent détruits lors du bombardement de Berlin en 1944).

Figure 1.4 - Calculateur Z1 et reconstruction du calculateur Z3

En 1943, International Business Machines (IBM) a créé un système personnalisé marine Premier ordinateur américain. Il a été conçu par des scientifiques de Harvard

Université sous la direction de Howard Aiken et appelée "Mark-1". Il a été construit sur l'architecture Harvard utilisant des relais électromécaniques, le programme a été saisi à partir d'une bande perforée. L'ordinateur mesurait 2 m de hauteur et 15 m de longueur.

Figure 1.5 – Ordinateurs Mark-1 et Colossus

En Grande-Bretagne, en décembre 1943, l'ordinateur British Colossus a été créé - le premier appareil informatique entièrement électronique conçu pour déchiffrer les codes codés en allemand. Machines énigmatiques messages secrets. Dix colosses furent construits, mais tous furent détruits après la guerre. En 1943, on commença

diodes au silicium, 1 500 relais, 70 000 résistances et 10 000 condensateurs (environ 6 m de haut et 26 m de long), avaient une performance de 5 000 opérations par seconde du type addition et 360 du type multiplication, coûtant 2,8 millions de dollars aux prix de celui-ci. temps. Consommation électrique - 150 kW. Puissance de calcul - 300 opérations de multiplication ou 5 000 opérations d'addition par seconde. Poids - 27 tonnes. Il a été construit sur ordre de l'armée américaine au Laboratoire de recherche balistique pour calculer les tables de tir. Utilisé pour les calculs lors de la création de la bombe à hydrogène. L'ordinateur a été allumé pour la dernière fois en 1955. "ENIAC" a servi de prototype pour la création de tous les ordinateurs ultérieurs.

Le développement de la première machine électronique en série UNIVAC (Universal Automatic Computer) a commencé en 1947 par Eckert et Mauchli, qui fondèrent la société ECKERT-MAUCHLI en décembre de la même année. Le premier échantillon de l'ordinateur UNIVAC-1 a été mis en service au printemps 1951 pour le Bureau du recensement des États-Unis. Il fonctionnait avec une fréquence d'horloge de 2,25 MHz et contenait environ 5 000 tubes à vide. En 1952, IBM lance son premier ordinateur électronique industriel, l'IBM 701, un ordinateur parallèle synchrone contenant 4 000 tubes à vide et 12 000 diodes au germanium.

DANS En 1949, dans la ville de Hünfeld (Allemagne), Konrad Zuse crée la société Zuse KG et achève en septembre 1950 les travaux sur l'ordinateur Z4 (le seul ordinateur fonctionnel en Europe continentale à cette époque), qui devient le premier ordinateur vendu aux États-Unis. monde : en avance sur le Mark I de cinq mois et dix UNIVAC. La société Zuse a créé des ordinateurs dont le nom commençait par la lettre Z. Les machines les plus célèbres sont le Z11, vendu aux entreprises de l'industrie optique et aux universités, et le Z22, le premier ordinateur à mémoire magnétique.

DANS 1945 SA Lebedev a créé le premier ordinateur électronique analogique d'URSS pour résoudre des systèmes ordinaires équations différentielles, que l'on retrouve dans les problèmes de génie électrique. Depuis l'automne 1948 à Kiev S.A. Lebedev a commencé le développement de Small Electronic machine à calculer(MESM). En 1950, MESM a été installé dans un bâtiment à deux étages d'un ancien monastère à Feofaniya, près de Kiev.

Dans la seconde moitié des années 50 du XXe siècle à Minsk sous la direction de G.P. Lopato et V.V. Przhijalkowski, les travaux ont commencé sur la création des premiers ordinateurs biélorusses de la famille Minsk-1 à l'usine informatique dans diverses modifications : Minsk-1, Minsk-11, Minsk-12, Minsk-14. La productivité moyenne de la machine était de 2 000 à 3 000 opérations par seconde.

DANS Les ordinateurs de première génération ont révélé une contradiction entre la vitesse élevée des appareils centraux et la faible vitesse et l'imperfection des appareils externes. Le premier support de stockage de données dans les ordinateurs était une carte perforée et des bandes de papier perforées ou simplement des bandes perforées. Les dispositifs de mémoire ont été implémentés sur des anneaux de ferrite enfilés sur des matrices métalliques.

Figure 1.6 – Supports de données des ordinateurs de première génération : carte perforée et bande perforée La deuxième étape du développement informatique est le remplacement des supports électroniques dans la conception de l'ordinateur.

lampes pour dispositifs à semi-conducteurs. Cela a commencé dans la seconde moitié des années 50 du XXe siècle. (Le 23 décembre 1947, aux Bell Labs, William Shockley, Walter Brathain et John Bardeen ont inventé l'amplificateur à transistor bipolaire de type ponctuel). Cela a permis de réduire le poids, la taille, le coût et les paramètres énergétiques des ordinateurs et d'améliorer leurs caractéristiques techniques.

vitesse de 250 000 opérations par seconde. Au cours de ces années, un nouveau type d'ordinateur est apparu, conçu pour contrôler les processus technologiques et appelé ordinateur de contrôle (CCM) : les ordinateurs industriels. La particularité de cette classe d'ordinateurs est leur fonctionnement en temps réel. Les ordinateurs ont commencé à être utilisés pour le traitement centralisé des données dans le secteur financier.

En 1956, IBM a développé des têtes magnétiques flottantes dans les airs

RAMAC. Ce dernier était constitué d'un paquet composé de 50 disques métalliques à revêtement magnétique qui tournaient à une vitesse de 12 000 tr/min.

En 1963, Douglas Engelbart a inventé la souris d'ordinateur, un dispositif permettant de saisir des informations dimensionnelles.

Le 4 juin 1966, Robert Dennard d'IBM a reçu un brevet pour une cellule mémoire à transistor unique (DRAM Dynamic Random Access Memory) et l'idée de base d'une cellule mémoire à 3 transistors utilisée pour le stockage à court terme d'informations dans un ordinateur.

Figure 1.8 - Lecteur de disque et première « souris » d'ordinateur La troisième étape est l'utilisation de la technologie dans la production d'ordinateurs

circuits intégrés (CI), inventés indépendamment en 1958 par Jack Kilby de Texas Instruments et Robert Noyce de Fairchild Semiconductor. A commencé dans la seconde moitié des années 60 du XXe siècle. Parallèlement, avec l'augmentation du nombre d'ordinateurs, la question de leur compatibilité logicielle se pose. Les ordinateurs de troisième génération avaient non seulement des indicateurs techniques et économiques améliorés, mais étaient également fabriqués en utilisant

principe modulaire du matériel et du logiciel. Les ordinateurs de troisième génération pourraient traiter les données non seulement sous forme de chiffres, mais également sous forme de caractères et de lignes de texte.

Figure 1.9 - Circuits intégrés Le début de l'ère des ordinateurs de troisième génération fut l'annonce du 7 avril 1964.

par IBM de l'ordinateur universel IBM System/360. Son développement a coûté 5 milliards de dollars américains aux prix de l'époque. Il s'agissait du prototype de la série européenne d'ordinateurs des pays membres du CAEM, dont la production a commencé en 1972. Parallèlement, différentes classes d'ordinateurs sont apparues : petits ordinateurs, mini-ordinateurs, ordinateurs de bureau, superordinateurs. La classe des ordinateurs de contrôle (CCM), désormais appelés ordinateurs et contrôleurs industriels, s'est développée à la fois indépendamment et en collaboration avec d'autres ordinateurs.

Figure 1.10 – Ordinateur IBM System/360 de troisième génération

DEC a créé le premier mini-ordinateur commercial, le PDP-1 (de la taille d'une voiture) doté d'un moniteur et d'un clavier, pour un coût de 120 000 $. En fait, le PDP-1 a été la première plate-forme de jeu pour le jeu informatique Star War, écrit par Steve Russell, étudiant au Massachusetts Institute of Technology (MIT).

La quatrième étape est associée au développement de la technologie des circuits intégrés à grande échelle (LSI) et d'une nouvelle classe de processeurs électroniques : les microprocesseurs. Le premier microprocesseur a été développé par Intel i4004 le 15 novembre 1971 pour les calculatrices de la société japonaise Nippon Calculating Machinery, Ltd. et coûtait 200 dollars. Il existe une opportunité d'améliorer qualitativement les caractéristiques techniques des ordinateurs et de réduire considérablement leur coût. Dans la seconde moitié des années 70, des ordinateurs de quatrième génération ont commencé à être produits.

Figure 1.11 - – Premier microprocesseur Intel 4004

À la fin des années 70 du 20e siècle, le développement a commencé pour créer de nouveaux microcircuits à très haut degré d'intégration (VLSI) pour les systèmes informatiques qui traitent non seulement des données alphanumériques, mais également des données sous forme d'images sonores et vidéo.

Les ordinateurs ont commencé à être utilisés pour créer des systèmes de traitement de données déterministes. L'émergence des microprocesseurs a conduit à l'émergence d'une nouvelle classe d'ordinateurs, actuellement la plus répandue : l'ordinateur personnel (PC ou PC). Le premier ordinateur de ce type, l'Altair 8800, a été développé par

Système de micro instrumentation et de télémétrie (Albuquerque, USA) en 1975

Figure 1.12 – Le premier ordinateur personnel (PC) Altair 8800

Le PC joue un rôle particulier dans la pénétration massive des fonds la technologie informatique V sphère sociale. Le premier ordinateur personnel véritablement produit en série, l'Apple II, a été produit par Apple Computer (États-Unis), fondée par Steve Wozniak et Steve Jobs en 1977, et a coûté 1 298 dollars. En URSS, au milieu des années 80 du 20e siècle, son analogue était produit sous le nom d'« Agate ». L'ordinateur disposait d'un écran couleur, d'un lecteur de disque (plus fiable et plus rapide que l'enregistreur à cassettes utilisé auparavant) et d'un logiciel conçu pour l'utilisateur commun.

Figure 1.13 – Premier PC Apple-II de production

Le premier PC mobile NoteTaker (prototype d'ordinateur portable) a été créé au centre California PARC en 1976. Il comprenait un processeur avec une fréquence d'horloge de 1 MHz, 128 Ko de RAM, un écran monochrome intégré, un lecteur de disquette et une souris. La version utilisée comme système d'exploitation était

une couverture qui couvrait le moniteur et le lecteur de disquette. NoteTaker pesait 22 kg et pouvait fonctionner de manière autonome (à partir de piles). Au total, une dizaine de prototypes ont été produits.

Figure 1.14 – Premier prototype de l'ordinateur portable NoteTaker

DANS En 1977, le premier complexe multiprocesseur a été développé en URSS."Elbrus-1" (15 millions d'opérations par seconde), dont l'idéologue de l'architecture était Boris Artashesovich Babayan.

DANS 1978 Seiko Epson présente l'imprimante matricielle TX-80 installé nouvelle norme pour des appareils d'impression économiques et performants.

Les PC se sont généralisés depuis 1981, date de la création de l'IBM PC 5150.

basé sur le microprocesseur Intel 8088, coûtant 3 000 $ - le premier PC de cette série équipé du logiciel système Microsoft. Entre 1981 et 1985, IBM a vendu plus d'un million de PC et en attendait initialement 250 000, qui ont été vendus au cours du premier mois. Une particularité de ce PC était l'utilisation du principe d'architecture ouverte. Grâce à cela, de nombreuses entreprises ont commencé à produire des ordinateurs de ce type, ce qui a considérablement réduit les prix et a mis les ordinateurs à la disposition non seulement des entreprises, mais également des particuliers. Pour de cette classe ordinateurs, de nouveaux types de périphériques ont été développés qui leur permettent d'être utilisés dans des systèmes bureautiques, de créer des réseaux informatiques d'informations distribués unifiés et d'utiliser un PC comme moyen de communication.

En mars 1979, lors de l'événement « Démo de disque audio numérique optique » dans la ville néerlandaise d'Eindhoven, le premier prototype de support optique a été présenté, le prototype de CD, appelé Pinkeltje, était censé remplacer les disques de musique populaires sur le marché à cette époque.

Figure 1.15 – Ordinateur personnel IBM PC 5150

Le 7 mai 1984, Hewlett-Packard (États-Unis) a lancé la première imprimante laser de la série LaserJet avec une productivité de 8 pages par minute avec une résolution de 300 dpi, coûtant 3 500 $ et coût par page de 0,041 $.

En 1982, Hewlett-Packard a lancé le premier ordinateur de poche : l'organiseur HP-75 doté d'un écran à cristaux liquides sur une seule ligne et de 16 Ko de RAM (plus 48 Ko de ROM). La configuration était complétée par un clavier assez grand (sans pavé numérique séparé), ainsi qu'un lecteur de carte magnétique, un emplacement d'extension mémoire et une interface HP-IL pour connecter des imprimantes, des disques externes, etc. L'appareil était équipé d'un interpréteur de langage BASIC et d'un éditeur de texte.

Figure 1.16 - Le premier ordinateur de poche - organisateur HP-75

La cinquième étape a débuté à la fin des années 80 et au début des années 90 du XXe siècle et est associée à l'amélioration technologique de tous les composants informatiques et à la réduction des coûts, ce qui a permis la création d'ordinateurs mobiles et l'introduction massive d'ordinateurs dans toutes les sphères de l'activité humaine. : production, formation, médecine, finance, communications, loisirs et divertissement. De nouveaux types de mémoire externe sont devenus largement disponibles : disques CD-RW, cartes mémoire. L'utilisation des réseaux informatiques a commencé non seulement par des spécialistes, mais aussi par des utilisateurs ordinaires.

De nouveaux dispositifs d'entrée/sortie basés sur des puces électroniques de mémoire flash sont apparus. En 1988, Intel a lancé la première puce de mémoire flash série NOR d'une capacité de 256 Kbit, au prix de 20 USD.

Les ordinateurs de cinquième génération sont destinés à un simple utilisateur sans formation particulière.

En 2000, IBM a créé le supercalculateur série RS/6000 SP - ASCI White (Accelerated Strategic Computing Initiative White Partnership), avec une performance de plus de 10 TFLOPS, une performance maximale de 12,3 TFLOPS. ASCI White, ce sont 512 ordinateurs connectés ensemble dans une zone de la taille de deux terrains de basket. L'ordinateur a été développé pour le laboratoire national Lawrence Livermore du ministère américain de l'Énergie afin de simuler explosions nucléaires et le contrôle des armes nucléaires stockées.

1.2.2 Historique du développement des technologies de l'information et de la programmation

Du point de vue du développement informatique Il y a quatre étapes dans l’histoire de l’informatique.

La première étape (années 40 - 60 du 20e siècle) est associée à de grandes limitations des ressources machine des ordinateurs de 1ère génération, un rôle particulier est donc joué lors de la compilation des programmes

commutateurs, mais cela n'est valable que pour les petits programmes.

Ensuite, un langage machine (codes machine) a été développé, à l'aide duquel il est devenu possible de définir des commandes en fonctionnant avec des cellules mémoire, en utilisant pleinement les capacités de la machine. Cependant, son utilisation pour la plupart des ordinateurs était très difficile, en particulier lors de la programmation des E/S, et les différents processeurs présentaient des différences dans l'ensemble des instructions machine. Cela a conduit à l'émergence de langages orientés machine - les assembleurs, qui utilisent des instructions mnémoniques au lieu d'instructions machine. Pour simplifier et accélérer le processus de codage des algorithmes de calcul, les langages de programmation algorithmique ALGOL et FORTRAN ont été créés.

L'ordinateur UNIVAC-1103 a été le premier à utiliser des interruptions logicielles. Les employés de Remington-Rand ont utilisé forme algébrique enregistrements d’algorithmes appelés « Short Cocle ». Officier de l'US Navy et chef d'un groupe de programmeurs, le capitaine (plus tard la seule femme de l'US Navy, amiral) Grace Hopper a développé le premier programme de compilation en 1951. En 1957, un groupe dirigé par D. Backus a achevé les travaux sur le premier programme de programmation. langue haut niveau Fortran ou FORTRAN (du traducteur de formule d'expression).

La deuxième étape (milieu des années 60 - début des années 80 du XXe siècle) est associée à la préservation des ressources humaines. Dans le même temps, il y a eu une transition de la technologie d'utilisation efficace des programmes à la technologie de programmation efficace. Lors du développement de systèmes de programmation, un rôle particulier a commencé à être attribué à l'économie des ressources humaines. Des langages de programmation de haut niveau ont été créés. Ils ressemblent à des langues naturelles, utilisant des mots de l’anglais parlé et des symboles mathématiques. Cependant, ce langage est devenu difficile à gérer lors du développement de gros programmes. La solution à ce problème est venue après l’invention de la technologie des langages de programmation structurés. Son essence réside dans la capacité de diviser un programme en ses éléments constitutifs.

Des langages fonctionnels (applicatifs) ont également été créés (Exemple : Lisp - English.

LISt Processing, 1958) et langages logiques (exemple : Prolog - English PROgramming in LOGic, 1972).

DANS En 1964, John Kemeny et Thomas Kurtz du Dartmouth College ont développé le langage de programmation BASIC (débutants). Code d'instruction symbolique polyvalent ou langage de code d'instruction symbolique polyvalent pour les débutants). L'American Standards Association adopte une nouvelle norme à 7 bits pour l'échange d'informations, ASCII (American Standard Code for Information Interchange).

Le langage de programmation Pascal a été créé en 1969 par Niklaus Wirth pour la formation initiale en programmation.

En 1969, les textes originaux ont été créés aux Laboratoires Bell.

Système d'exploitation UNIX utilisant le langage de programmation C.

En 1974 Digital Research a créé le système d'exploitation CP/M, qui est devenu la base des PC basés sur les microprocesseurs Intel 8080 8 bits et Zilog Z-80.

Niklaus Wirth a développé le langage de programmation Modula en 1977, et son la poursuite du développement Module -2.

DANS 1978 Seymour Rubinstein fonde MicroPro International, qui a lancé l'un des premiers traitements de texte de qualité, Word Master.

DANS En 1980, apparaissent les premiers tableurs VisiCalc de Ray Ozzie, qui permettent aux utilisateurs ordinaires d'effectuer des calculs sans connaissance d'un langage de programmation.

DANS Système d'exploitation créé en 1981 MS-DOS 1.0 de Microsoft pour la série IBM PC.

La troisième étape (du début des années 80 au milieu des années 90 du XXe siècle) - formalisation

connaissance. Avant cette étape, seuls les spécialistes dans le domaine de la programmation travaillaient avec des ordinateurs dont la tâche était de programmer des connaissances formalisées. Au cours des 30 années de technologie informatique, une partie importante des connaissances accumulées dans le domaine des sciences exactes au cours des 300 dernières années a été enregistrée dans la mémoire externe de l'ordinateur. Fin 1983, 90 % des utilisateurs d’ordinateurs n’étaient plus des programmeurs professionnels.

La programmation structurée s'est effondrée lorsque les programmes ont atteint une certaine taille et complexité. À la fin des années 1970 et au début des années 1980, les principes de la programmation orientée objet (POO) ont été développés. SmallTalk a été le premier langage POO. Puis C++ et Object Pascal (Delphi) ont été développés. La POO vous permet d'organiser les programmes de manière optimale en divisant un problème en ses composants et en travaillant avec chacun séparément. Un programme dans un langage orienté objet, résolvant un certain problème, décrit essentiellement une partie du monde liée à ce problème.

DANS En 1984, Westlake Data Corporation a développé le premier gestionnaire de fichiers, PathMinder, un shell riche en fonctionnalités pour DOS.

DANS En 1985, la première version du programme de mise en page Aldus PageMaker est sortie.

DANS En 1985, SEA a développé le premier archiveur ARC.

En 1986, le gestionnaire de fichiers Norton Commander 1.0 pour DOS a été développé par Peter Norton Computing (acquis plus tard par Symantec).

DANS En 1986, Larry Wall a développé le langage de script Perl.

DANS En octobre 1987, la première version du tableur Microsoft Excel a été créée.

DANS En décembre 1988, la première version de Word pour Microsoft Windows est sortie.

DANS En décembre 1989, la première version d'Adobe Photoshop a été développée.

Le 22 mai 1989, l'environnement d'exploitation Microsoft Windows 3.0 a été publié, qui n'est pas un système d'exploitation indépendant, mais uniquement un module complémentaire sur MS-DOS. Au milieu de 1989, la première version du package graphique populaire CorelDRAW a été publiée.

DANS 1990 Microsoft développe le langage de programmation Visual Basic.

DANS En septembre 1991, la première version du système d'exploitation distribué gratuitement Linux 0.01 a été publiée par l'étudiant finlandais Linus Torvalds.

DANS Norme créée en 1992 MPEG-1, qui définit 3 niveaux de codage des données audio (le troisième niveau correspond à la meilleure qualité).

DANS Novembre 1993, l'environnement d'exploitation Microsoft Windows for Workgroups est sorti

À l'automne 1994, IBM OS/2 Warp 3.0 est sorti.

DANS Fin 1994, une norme d'encodage et de conditionnement des données vidéo a été adoptée. MPEG-2. La quatrième étape (commencée au milieu des années 90 du 20e siècle) est associée au fait que les ordinateurs

principalement utilisé par des utilisateurs non qualifiés, cela a conduit à l'utilisation d'interfaces simples et intuitives. Les ordinateurs sont passés d'un moyen informatique à un moyen de télécommunication et de divertissement.

Annonce du 24 août 1995 du système d'exploitation Microsoft Windows 95 avec une nouvelle interface intuitive. Au même moment, la suite de programmes bureautiques Microsoft Office 95 est sortie.

En septembre 1995, IBM a annoncé le système d'exploitation OS/2 Warp Connect 4.0. L'utilisation de systèmes de programmation classiques pour développer une interface de programme d'application moderne a commencé à nécessiter trop de temps de la part du développeur pour compiler sa description. Ce qui a conduit à la création de systèmes de programmation visuelle ou de systèmes de développement rapide (systèmes RAD), qui généraient automatiquement la partie du code du programme responsable de l'interface logicielle avec l'utilisateur. En 1995, Borland a lancé l'environnement de développement rapide d'applications (système RAD) Borland Delphi 1.0 basé sur le langage de programmation Object Pascal pour Environnement Windows 3.11. En 1996, la première version du système RAD est apparue pour

langage de programmation C++ Borland C Builder.

DANS En 1996, Microsoft a publié Windows NT 4.0 avec une interface similaire à Windows 95 et la prise en charge de la technologie de configuration automatique du matériel PnP.

DANS En décembre 1999, la suite bureautique Microsoft Office 97 est sortie.

DANS En juillet 1998, le système d'exploitation PC Microsoft Windows 98 est sorti.

DANS En décembre 1999, la suite bureautique Microsoft Office 2000 et le système d'exploitation Microsoft Windows 2000 de nouvelle génération ont été annoncés, combinant Windows 9x et

Parfois tu regardes autour de toi et il semble que monde moderne n’existe pas en dehors de l’informatique. Il existe cependant des domaines de la vie humaine qui sont très peu touchés par l’informatisation. L’un de ces domaines est l’histoire. À la fois comme science et comme formation. Bien sûr, il est peu probable que le travail sur ordinateur remplace les historiens qui fouillent dans les archives. Mais étudier l’histoire à l’aide de cartes statiques dessinées dans un manuel et organiser l’ordre des événements en écrivant soigneusement les dates sur une feuille de papier par ordre croissant, c’est sûr. le siècle dernier. Cependant, il n’existe pas beaucoup d’outils pour étudier visuellement l’histoire et ils sont très difficiles à trouver.

Si vous voulez savoir ce que sont les cartes historiques interactives, où consulter les représentations chronologiques des événements et comment effectuer des requêtes Wikipédia complexes telles que "toutes hommes d'État, travaillant en Europe en 1725" - continuez à lire.

Comment tout a commencé : le école d'été nous avons entrepris de créer une carte interactive des événements historiques basée sur Wikipédia. Je ne donne pas de lien direct vers le projet, parce que le projet est très rudimentaire (une équipe de 4 formidables élèves de dixième a travaillé dessus, mais que peut-on accomplir en 3 semaines), et aussi parce que le serveur a l'habitude de « s'écraser » même sans l'effet Habra.
Nous voulions afficher sur une carte les événements qui se sont déroulés à différentes époques historiques - et cela a partiellement fonctionné : nous avons une carte des batailles avec leurs descriptions. À l’époque où nous réalisions ce projet, nous ne connaissions que quelques atlas historiques interactifs, et aucun d’entre eux ne montrait les événements sur une carte.

Je crois qu'il y a si peu de ces cartes parce que tout le monde est confronté aux mêmes problèmes que nous : les données historiques ne sont pas structurées. Il n’existe pas de bases de données lisibles par machine à partir desquelles des informations sur des événements historiques importants peuvent être téléchargées. Les historiens, même s'ils créent des bases de données, n'y décrivent, en règle générale, que leur champ d'application étroit. Domaine- une sorte de carte des fortifications de l'Empire romain. Cela peut être intéressant et utile pour les historiens, mais il est peu probable que les gens ordinaires puissent tirer grand bénéfice d’une telle carte. Le deuxième problème est le manque total de données sur les frontières des pays dans une perspective historique. Vous pouvez trouver des centaines d'atlas d'époques anciennes, mais vous devrez transférer manuellement les coordonnées des limites des atlas. Le troisième problème est l’absence de normes pour décrire les données historiques. Il n'existe même pas de format normal pour décrire une date ; les types et formats de données standard se répartissent autour des années avant JC. Que dire des calendriers différents ou des dates mal définies ?..

Les problèmes du manque de données historiques lisibles par machine attendent toujours d'être résolus (nous y travaillons, rejoignez-nous, il y a assez de travail pour tout le monde). Mais néanmoins, certains projets y font face à leur manière...

Comme il est dit la sagesse populaire: "Après avoir cassé l'appareil, lisez les instructions." Après avoir créé notre carte, j'ai pu trouver plusieurs autres projets avec des cartes interactives et d'autres moyens de visualiser l'histoire et d'exploiter les données historiques. Mais il m'a fallu un temps complètement indécent pour creuser ces ressources dans les profondeurs d'Internet, j'ai donc décidé de rassembler tout ce que je trouvais au même endroit.

Première catégorie - cartes historiques interactives. Ce ne sont pas les cartes de mes rêves, mais ce sont des produits plutôt efficaces. Il y en a un bon nombre (et je n’énumère pas ici les plus spécialisés), mais parmi eux, il n’y en a que quelques-uns qui sont vraiment bons, hélas. Il est particulièrement regrettable qu’il n’existe pas de projets localisés parmi eux, ce qui signifie qu’il est difficile d’enseigner aux écoliers russophones en les utilisant.

  • La carte la plus mignonne, et qui possède également de très larges capacités de visualisation, est Chronas. C'est un peu difficile d'apprendre par soi-même, alors jetez-y un œil. Clip vidéo sur ses capacités. C'est beau et fort. Les événements historiques sont marqués sur la carte différents types avec des informations à l'appui, qui vous permettent de vous familiariser avec l'histoire sans lever les yeux de la carte.

    Les informations figurant sur la carte proviennent, entre autres, de Wikipédia et Wikidata. La carte est historiquement inexacte, comme l’ont rapporté de nombreux utilisateurs familiers avec l’histoire chinoise. Mais le projet contient les rudiments de l'édition de cartes wiki, donc un jour les erreurs seront corrigées.

    A partir de la vidéo d'introduction, vous pourrez également découvrir les possibilités assez larges de visualisation d'informations statistiques (type de population, religions professées, etc.) sur différentes époques. Toutes ces visualisations ne sont pas simples et visuelles, mais la possibilité de le faire est excellente.

  • Il existe une carte Running Reality avec des marquages ​​de territoire très détaillés. Le projet veut décrire l'histoire jusqu'à l'histoire des rues et pour cela il permet l'édition wiki de la carte (si je comprends bien, pas dans la version web). Ils ont une visualisation plutôt médiocre des données historiques, mais un modèle de données très compétent qui permet de décrire des branches alternatives de l'histoire (ce qui est utile lorsque les historiens ont plusieurs hypothèses sur « comment les choses se sont réellement passées »). Ils écrivent que la carte Web est beaucoup plus jeune et a des capacités réduites par rapport à la version autonome, et je n'ai pas testé la version autonome (elle n'a pas démarré). Cependant, il est aussi gratuit que le Web. Si vous parvenez à le lancer, écrivez vos commentaires dans les commentaires.
  • J'ai trouvé la carte Geacron il y a longtemps. Il a été dessiné par des historiens à partir de sources et d’atlas, ce qui signifie qu’il reflète probablement l’histoire avec plus de précision que d’autres. Mais cette carte manque cruellement d'interactivité. En plus du mode carte, le site dispose d'une chronologie pour les périodes historiquement significatives. Triste, mais priorisé par les vrais historiens. L'un des problèmes des cartes précédentes est qu'il y a des événements importants et des événements passagers sur un pied d'égalité. Geacron semble éviter cela grâce à la curation manuelle des données.
  • Carte spatio-temporelle avec recherche d'événements par catégorie. Pas incendiaire, mais bien fait (et comparé au nombre proche de zéro de cartes similaires...) Et c'est encore Wikipédia et Wikidata.
  • Atlas CENTENNIA propriétaire sans version Web. Il me semble que dans des vidéos comme « 1000 ans Histoire européenne en cinq minutes », cette carte est habituellement utilisée.
  • Timemaps est un clone plutôt faible de geacron, mais certains peuvent le trouver plus pratique.
  • mise à jour : Histoire de l'urbanisation - une carte animée qui montre les époques de l'émergence des villes.
  • mise à jour : Histoire de la population mondiale - carte de la population au fil du temps. Il indique également toutes sortes de choses comme l'espérance de vie, le niveau de gaz à effet de serre et ainsi de suite. A marqué quelques étapes importantes de l’histoire de l’humanité
  • upd2 : Wordology - un ensemble de mots très simples cartes interactives selon les différentes périodes de l'histoire. Probablement fait à la main. Les détails sont minimes et l’interactivité n’est pas excellente non plus.
La deuxième catégorie est diverse. Ce sont des projets intéressants, quasi historiques, que j’ai découverts en cours de route.
  • Chronologies historiques sur Histropedia. Je ne suis pas un grand fan du style de présentation des données sur l'axe temporel, mais a) en l'absence de meilleurs outils de visualisation, vous pouvez les utiliser, b) ces chronologies sont vraiment bien conçues et pratiques, c) ces chronologies peuvent être modifiées , et vous pouvez également créer les vôtres, d ) vous pouvez créer des chronologies non pas à la main, mais en interrogeant Wikidata, e) de nombreuses chronologies ont déjà été réalisées pour vous, et c'est un plaisir de les étudier.
  • Wikijourney - une carte avec des articles wiki géolocalisés sur ces lieux. Il est censé être utilisé pour les attractions, mais Wikipédia contient des articles sur presque toutes les rues de Moscou et chaque station de métro - je vois donc une liste assez banale d'« attractions » autour de moi. Sur le Chronoas mentionné ci-dessus, il y a d'ailleurs également sur la carte des photographies qui sont d'une manière ou d'une autre attribuées à un lieu-temps, mais l'attribution au temps est tout à fait conditionnelle : quel âge a cette photographie ?...
  • Outils de visualisation de données de recherche en sciences humaines. Depuis un demi-siècle, la science des « humanités numériques » existe – les méthodes informatiques de recherche humanitaire. Je dirais que cette science est à peine brillante, à en juger par le peu de choses qui ont été faites jusqu'à présent... mais quand même. Ainsi, un certain nombre d'outils de visualisation ont été développés pour les historiens, philologues, archéologues et autres spécialistes. Il s’agit pour la plupart de visualisations de toutes sortes de connexions entre objets. Dans un graphique, sur une carte, dans un nuage de tags, dans une perspective temporelle, etc.
    Par exemple, Stanford a développé un certain nombre d'outils similaires (je suis tombé plusieurs fois sur des mentions de leur outil Palladio, apparemment c'est leur outil principal).
    Il existe également le projet NodeGoat - ils sont bien adaptés à la visualisation de données liées (voir ci-dessous). Voici, disons, leur carte de bataille basée sur les données de wikidata et dbpedia. La carte est superbe, même si la navigation à travers les liens vers les objets liés n'est pas très pratique. À propos, si vous cliquez, par exemple, sur un point avec des événements qui se sont « produits » en plein centre de la Russie, vous verrez un problème commun avec toutes les cartes réalisées en analysant les informations : affectation incorrecte d'un événement à un lieu et temps.
La troisième catégorie est ma préférée ; elle est définitivement l'avenir. Données liées.
Des graphes de connaissances étiquetés ou des réseaux sémantiques, c'est tout. La technologie la plus puissante pour rédiger des requêtes de recherche complexes. Il se développe depuis longtemps, mais n’a pas encore atteint la population. La raison principale en est la difficulté d'utilisation et, surtout, la difficulté d'étudier : il existe peu de matériel, et presque tous les matériels sont conçus pour les programmeurs. j'ai fait un petit une sélection de bons et abordables matériel éducatif , ce qui permettra à une personne ordinaire de maîtriser cet outil en quelques heures. Ce n'est pas rapide, mais pendant ce temps, votre « google-fu » augmentera considérablement.

La technologie des réseaux sémantiques est adoptée par tous les principaux systèmes de recherche et d’information. En particulier, nombreux sont ceux qui apprennent désormais à traduire le langage naturel en requêtes formalisées pour un tel graphe. Les agences d'enquête et les services de renseignement l'utilisent sûrement (étant donné que l'un des graphiques de connaissances les plus populaires est réalisé selon le CIA Factbook). Il existe un million de façons d’utiliser cette technologie dans n’importe quel travail analytique : pour l’État, pour les affaires, pour la science et même pour la planification des ménages.

Peut-être que dans quelques années, les moteurs de recherche apprendront à déchiffrer certaines de vos questions en langage naturel et à y répondre. Mais vous pouvez vous-même profiter dès maintenant de toute la puissance de cet outil et bénéficier de bien plus de flexibilité que n’importe quel moteur de recherche ne vous en offrira. Ainsi, le matériel pédagogique :

  • Il existe un excellent tutoriel « Utiliser SPARQL pour accéder aux données ouvertes liées » (sur le site Web The Programming Historian) sur ce que sont les données liées et pourquoi elles sont nécessaires. Je crois que tout le monde personne instruite devrait apprendre les bases de SPARQL, tout comme tout le monde devrait savoir comment utiliser Google. Il s'agit littéralement de la manière de créer des requêtes de recherche complexes et puissantes (voir les exemples ci-dessous). Vous ne l'utiliserez peut-être pas tous les jours, mais lorsque surviendra la prochaine tâche de recherche et d'analyse d'informations, nécessitant un mois de travail manuel, vous saurez comment l'éviter.

    Pour être honnête, malgré la bonne présentation, le matériel reste assez complexe : le format de données RDF, les ontologies et le langage de requête SPARQL. Jusqu’à ce que je trouve cet article, je ne pouvais qu’admirer à quel point les gens sympas l’utilisaient, mais je ne comprenais pas vraiment comment le faire fonctionner. L'historien de la programmation décompose le matériel complexe avec des exemples très clairs et montre comment l'utiliser.

    Leur site Internet n’est d’ailleurs pas dénué d’intérêt de par son nom. Ils enseignent aux historiens comment utiliser les outils informatiques et la programmation pour la recherche. Parce qu'un peu de programmation rend n'importe quel travail plus facile.

  • Un bon didacticiel vidéo d'introduction de 15 minutes sur la façon d'interroger Wikidata puis de le visualiser dans l'histopédie. Purement leçon pratique, après quoi vous comprendrez sur quels boutons appuyer pour rédiger votre demande et voir le résultat sous une forme digestible. Je recommande de regarder cette vidéo après le didacticiel, puis de commencer à pratiquer.
  • Exemples de requêtes pour avoir une idée de la puissance de l’outil. N'hésitez pas à cliquer sur "Exécuter". Dans la fenêtre de requête, vous pouvez passer votre souris sur les identifiants - une info-bulle vous montrera ce qui se cache derrière les mystérieux wdt:P31 et wd:Q12136. Donc : une requête renvoyant toutes les femmes maires des grandes villes ou. Ces projets visent à fournir des sources de données liées et lisibles par machine qui sont continuellement complétées par la communauté. Il existe également toutes sortes de sources de données plus conservatrices soutenues par les musées - sur les collections d'art et d'archéologie, les dictionnaires de noms géographiques et de biographies, les ontologies biologiques. Et probablement bien plus encore. Recherchez sur Google les mots « point de terminaison SPARQL ».
J'espère que cet article contribuera non seulement à satisfaire votre curiosité et à captiver vos écoliers avec l'histoire visuelle, mais également à éveiller votre imagination sur le thème des nouveaux outils et bases de données historiques. Le travail dans le domaine de l’informatique historique est un domaine non labouré. Rejoignez-nous, messieurs !

Comment les gens transmettent-ils et échangent-ils des informations sociales ? Cela se produit principalement au niveau de la communication personnelle. Cela se produit à l'aide de mots, de gestes, d'expressions faciales. Cette méthode de cognition humaine est assez informative, mais elle présente son inconvénient important : la communication personnelle est limitée dans le temps et dans l'espace. L'homme a appris à créer des œuvres qui expriment ses buts et ses intentions et a pu comprendre que ces œuvres peuvent devenir des sources. d’informations. En conséquence, les gens accumulent des expériences quotidiennes et les transmettent aux générations suivantes. Pour ce faire, ils l’encodent dans des objets matériels.

L'étude de la source est une méthode de cognition monde réel. L'objet dans ce cas est constitué d'objets culturels créés par des personnes - œuvres, choses, archives, documents.

Puisque les gens créent des œuvres à dessein, ces œuvres reflètent ces objectifs, les moyens de les atteindre, ainsi que les opportunités que les gens ont eues à un moment ou à un autre, dans certaines conditions. Par conséquent, en étudiant les œuvres, vous pouvez en apprendre beaucoup sur les personnes qui les ont créées, et l'humanité utilise largement cette méthode de connaissance.

Question 45. La notion de source, les types de sources.

Sources historiques- toute la gamme de documents et d'articles culture matérielle, qui reflétait directement le processus historique et capturait faits individuels et événements accomplis, sur la base desquels l'idée d'un particulier époque historique, des hypothèses sont avancées sur les causes ou les conséquences qui ont conduit à certains événements historiques

Il existe de nombreuses sources historiques, elles sont donc classées. Il n’existe pas de classification unique, puisque chaque classification est conditionnelle et controversée. Il peut y avoir différents principes sous-jacents à une classification particulière.

Il existe donc plusieurs types de classification. Par exemple, les sources historiques sont divisées en intentionnel et non intentionnel. Les sources involontaires incluent ce qu'une personne a créé afin de se procurer tout ce dont elle a besoin pour vivre. Les sources intentionnelles sont créées dans un but différent : se faire connaître, laisser une marque dans l’histoire.

Selon une autre classification, les sources sont divisées en matériel(fabriqué par l'homme) et spirituel. Au même moment, l'éminent historien russe A.S. Lappo-Danilevsky a soutenu que toutes les sources, y compris les sources matérielles, sont des « produits de la psyché humaine »2.

Il existe d'autres classifications des sources historiques : elles sont regroupées par périodes de création, par type (sources écrites, mémoires, supports médiatiques, etc.), par différents domaines de la science historique (histoire politique, économique, histoire culturelle, etc.). ).

Considérons le plus classification générale sources historiques.

1. Sources écrites:


  • documents imprimés

  • manuscrits - sur écorce de bouleau, parchemin, papier (chroniques, chroniques, chartes, traités, décrets, lettres, journaux intimes, mémoires)

  • monuments épigraphiques - inscriptions sur pierre, métal, etc.

  • graffitis – textes griffonnés sur les murs des immeubles, vaisselle

2. Réel(outils, objets artisanaux, vêtements, pièces de monnaie, médailles, armes, structures architecturales, etc.)

3. Bien(peintures, fresques, mosaïques, illustrations)

4.Folklore(monuments d'art populaire oral : chants, contes, proverbes, dictons, anecdotes, etc.)

5.Linguistique (noms géographiques, noms de personnes)

6. Documents cinématographiques et photographiques(documents cinématographiques, photographies, enregistrements phoniques)

La recherche de sources historiques est la composante la plus importante du travail d’un chercheur. Mais les sources ne suffisent pas à elles seules pour reconstruire correctement l’histoire. Vous devez également être capable de travailler avec des sources historiques et de les analyser.

Il est loin le temps où toutes les sources de preuve étaient prises au pied de la lettre. La science historique moderne part de l'axiome selon lequel le témoignage de toute source nécessite une vérification minutieuse. Cela s’applique aussi bien aux sources narratives (c’est-à-dire les récits de témoins et de témoins oculaires) qu’aux documents, qui occupent une place importante dans la recherche.

Question 46. Le problème de la fiabilité de l'information

La pratique de la recherche représente un mouvement sans fin vers une connaissance toujours plus complète et approfondie de la réalité historique. Une source, même si elle fait partie d’un fait, ne nous donne pas une idée du fait dans sa globalité. Aucune source ne peut être identifiée avec la réalité historique. Par conséquent, lorsque nous parlons de la fiabilité d’une source, nous parlons du degré de correspondance, des informations qu’elle contient, avec le phénomène affiché. Le concept même de « fiabilité » n’implique donc pas une conformité absolue (à 100 %), mais une conformité relative.

Si l'étape d'interprétation de la source implique la création d'une image psychologiquement fiable de l'auteur de la source, l'utilisation, parallèlement aux catégories logiques du processus cognitif, de catégories telles que le bon sens, l'intuition, la sympathie, l'empathie, alors, à leur tour , au stade de l'analyse du contenu, des jugements logiques et des preuves, de la comparaison des données, de l'analyse de leur cohérence entre elles. Cette approche permet de résoudre des problèmes complexes d’objectivité des connaissances humanitaires.

Le chercheur ne peut établir que le degré de correspondance avec le fait-événement, mais pas son identité. Sur la base de la source, le chercheur reconstruit et modélise uniquement le fait (objet) - verbalement ou par d'autres moyens. Et si l'objet lui-même est systématique, cela ne signifie pas que notre connaissance à son sujet soit systématique. La méthode humanitaire générale d'étude des sources permet dans ce cas de déterminer le degré d'approche de la connaissance de la réalité réelle du passé. Des catégories telles que l’exhaustivité et l’exactitude y contribuent également.

L'exhaustivité de la source est le reflet dans la source des caractéristiques déterminantes, des caractéristiques essentielles de l'objet étudié, des caractéristiques du phénomène et du contenu principal des événements. En d’autres termes, si nous nous basons sur la source, nous pouvons nous faire une certaine idée de fait réel passé, on peut parler de l'exhaustivité de la source. De plus, dans les sources historiques, nous voyons assez souvent un grand nombre de petits facteurs et détails affichés. Ils ne permettent pas de se faire une idée sur le phénomène, l'événement ou le fait étudié. Mais leur présence nous permet de concrétiser nos connaissances. Dans ce cas, nous pouvons parler de l'exactitude des informations provenant de la source historique, c'est-à-dire de la mesure dans laquelle des détails individuels y sont véhiculés.

L'exhaustivité est une caractéristique qualitative ; elle ne dépend pas directement de la quantité d'informations. Deux pages de texte, un petit croquis (esquisse) peuvent donner une meilleure idée de ce qui se passait qu'un gros volume de manuscrit, un immense tableau, etc.

La précision, au contraire, caractéristique quantitative: le degré auquel les détails individuels du fait décrit sont reflétés dans la source. Cela dépend largement de la quantité d’informations. Par conséquent, il n’y a pas de lien très étroit (comme diraient les mathématiciens, directement proportionnel) entre l’exactitude et l’exhaustivité. L’abondance des informations et la liste des détails, au contraire, peuvent rendre difficile la perception et la compréhension de l’information source. En même temps, à un certain stade, la quantité de détails permet d'éclairer significativement le contenu principal des événements (le passage de la quantité à la qualité). Tout comme la clarification de divers fragments d'une image particulière contribue à la création d'une idée de celle-ci dans son ensemble.

Le point suivant est de clarifier l’origine de l’information : s’agit-il d’informations basées sur une observation personnelle, ou ces informations sont-elles empruntées ? Naturellement, nous faisons intuitivement confiance à davantage d’informations que nous pouvons observer nous-mêmes (« Mieux vaut voir une fois que d’entendre cent fois » - n’est-ce pas l’effet magique des actualités). Les auteurs des sources étaient également conscients de ce fait. La première condition est donc de clarifier les preuves de l’observation personnelle, même si l’auteur tente de les prouver. Connaissance des conditions de survenance (lieu, heure, circonstances) et caractéristiques psychologiques le créateur de la source permet à ce stade d'ajuster considérablement ses déclarations.

L'essentiel pour critiquer la fiabilité d'une source est d'identifier les contradictions internes dans la source analysée ou les contradictions avec les rapports d'autres sources et les raisons de ces contradictions. Lors de la comparaison des sources, le chercheur n'a pas toujours la possibilité d'utiliser comme critère celles d'entre elles dont la fiabilité ne fait aucun doute. De ce fait, il est souvent nécessaire de recourir à la validation croisée. En cas de divergences, il devient nécessaire de décider quelle source est considérée comme la plus fiable. Dans ce cas, il faut se laisser guider par les résultats de la critique des sources.

Question 47. Méthodologie pour travailler avec une source

Lorsqu’il extrait une information d’une source, le chercheur doit retenir deux points essentiels :

· La source fournit uniquement les informations que l'historien y recherche ; elle répond uniquement aux questions que l'historien lui pose. Et les réponses reçues dépendent entièrement des questions posées.

· Une source écrite transmet des événements à travers la vision du monde de l'auteur qui l'a créée. Cette circonstance est importante, car l'une ou l'autre compréhension de l'image du monde qui existe dans l'esprit du créateur de la source affecte d'une manière ou d'une autre les données qu'il enregistre.

Étant donné que les sources historiques de divers types sont créées par des personnes dans le cadre d'une activité consciente et ciblée et leur ont servi à atteindre des objectifs spécifiques, elles contiennent des informations précieuses sur leurs créateurs et l'époque à laquelle elles ont été créées. Pour extraire ces informations, il est nécessaire de comprendre les caractéristiques et les conditions d’origine des sources historiques. Il est important non seulement d’extraire les informations de la source, mais également de les évaluer de manière critique et de les interpréter correctement.

Interprétation réalisée dans le but d'établir (à un degré ou à un autre, dans quelle mesure cela est possible, compte tenu de la distance temporelle, culturelle ou toute autre distance séparant l'auteur de l'œuvre et le chercheur) le sens que l'auteur a mis dans le travail. De l'interprétation, le chercheur passe à analyse son contenu. Il lui devient nécessaire de regarder la source et ses preuves à travers les yeux d'un chercheur moderne d'une personne d'un autre temps. Le chercheur révèle l’intégralité des informations sociales de la source et résout le problème de sa fiabilité. Il avance des arguments en faveur de sa version de la véracité des preuves et justifie sa position.

Selon Mark Block, les sources elles-mêmes ne disent rien. Un historien qui étudie les sources doit y chercher une réponse à une question précise. Selon la formulation de la question, la source peut fournir des informations différentes. Blok cite comme exemple la vie des saints du début du Moyen Âge. En règle générale, ces sources ne contiennent pas d'informations fiables sur les saints eux-mêmes, mais elles éclairent le mode de vie et la pensée de leurs auteurs.

L'historien de la culture Vladimir Bibler pensait qu'en plus d'une source historique du passé créée par des mains humaines, un « fragment de réalité passée » arrive à notre époque. Après identification positive de la source, le chercheur commence à s'engager dans un travail de reconstruction : comparaison avec des sources déjà connues, complétion mentale, comblement des lacunes, correction des distorsions et nettoyage des couches ultérieures et des interprétations subjectives. L'essentiel pour l'historien est de déterminer si l'événement décrit dans la source ou rapporté par lui est réellement un fait, et que ce fait s'est réellement produit ou s'est produit. En conséquence, l'historien élargit le fragment de réalité passée qui est tombé à notre époque et, pour ainsi dire, augmente sa « superficie historique », reconstruit plus complètement la source elle-même, approfondit son interprétation et sa compréhension et, finalement, augmente connaissance historique:

Décodage fait historique, nous incluons des fragments de réalité passée dans la réalité moderne et révélons ainsi l’historicisme de la modernité. Nous nous développons nous-mêmes en tant que sujets culturels, c'est-à-dire des sujets qui ont vécu une longue vie historique (100, 300, 1000 ans). Nous agissons comme des sujets historiquement attentifs.

Bien que partie droite L'inscription n'a pas survécu, les tentatives pour déchiffrer la lettre ont réussi. Il s'avère qu'il fallait le lire verticalement, en attachant la lettre de la ligne du bas à la lettre de la ligne du haut, puis tout recommencer, et ainsi de suite jusqu'à la dernière lettre. Certaines des lettres manquantes ont retrouvé leur sens. L'inscription incompréhensible était une plaisanterie d'un écolier de Novgorod, qui écrivait : « L'ignorant Pisa n'est pas duma kaza, mais hto se cita... » - « L'ignorant a écrit, l'irréfléchi a montré, et qui le lit... ». En travaillant avec un morceau d'écorce de bouleau, le chercheur a non seulement déchiffré l'inscription, mais a également acquis des idées sur le caractère du peuple et la culture de cette époque. Il a également généré de nouvelles connaissances sur l’ancienne culture russe et la psychologie des peuples de l’époque étudiée ou, selon les mots de Bibler, a élargi le domaine d’un fragment du passé :

À notre époque, nous avons (en fait) une lettre en écorce de bouleau vraiment significative. Un morceau de la vie quotidienne du XIIe siècle est présent et existe toujours. avec un humour grossier caractéristique, des blagues pratiques et des « extraits » de relations.

Pour travail réussi Avec les sources historiques, il faut non seulement minutie et impartialité, mais aussi un large horizon culturel.

Question 48 Critique de la source

Toute source contient des informations et du contenu. Le chercheur examine deux aspects : l'exhaustivité de la source et sa fiabilité. Le premier fait référence à la capacité d’information, c’est-à-dire le chercheur regarde ce que l'auteur de la source écrit, ce qu'il voulait dire, ce qu'il a écrit, ce que l'auteur savait mais n'a pas écrit, il y a des informations explicites et des informations cachées. L'exhaustivité d'une source est étudiée par comparaison avec d'autres sources dédiées au même événement. Contient-il des informations uniques ? Après cela, le chercheur procède à l’étude de la fiabilité de la source. Elle révèle à quel point l’écriture des faits correspond à des événements historiques réels. C'est l'apothéose de la critique. Il existe deux méthodes pour identifier la vérité :

1. Technique comparative : la source qui nous intéresse est comparée à d'autres sources. Nous devons tenir compte du fait que lors des comparaisons, nous ne devons pas exiger une coïncidence absolue dans la description des sources. On peut s'attendre à une certaine similitude. Différents types les sources décrivent les mêmes événements différemment.

2. Technique logique : divisée en deux sous-types : étudier du point de vue. logique formelle, étude du point de vue une vraie logique.

Critique externe– comprend une analyse des caractéristiques externes du matériel existant afin de l’établir origine probable et l'authenticité. Une source écrite doit être examinée pour en déterminer la paternité probable, l'heure et le lieu de création, ainsi que le papier, l'écriture manuscrite, la langue, vérifier les modifications et les insertions...

Commence alors l’étape suivante : critique interne. Ici, le travail ne se fait plus sur la forme, mais sur le contenu. Les procédures de critique interne sont donc plus pertinentes pour les sources de l’auteur, car elles analysent aussi bien le contenu du texte que l’identité de l’auteur (si elle est établie). Qui en était l'auteur ? Quels intérêts de groupe pourrait-il défendre ? Dans quel but ce texte a-t-il été créé ? À quel public était-il destiné ? Comment les informations contenues dans ce texte se comparent-elles à d’autres sources ? Le nombre de ces questions peut se compter par dizaines... Et seule une partie des informations qui ont résisté à toutes les étapes de critique et de comparaison avec des sources parallèles peuvent être considérées comme relativement fiables, et seulement s'il s'avère que l'auteur n'avait aucune raison évidente déformer la vérité.

Question 49 Critique et attribution de la source

Le chercheur doit déterminer et comprendre le sens qu'il a donné à ce travail créateur de la source. Mais vous devez d'abord établir le nom de l'auteur de la source. Connaître le nom de l'auteur ou du compilateur d'une source nous permet d'établir plus précisément le lieu, l'heure et les circonstances de l'origine de la source, ainsi que l'environnement social dans lequel elle est née. L'ampleur de la personnalité du créateur de l'œuvre, le degré d'achèvement de l'œuvre, le but de sa création, tous ces paramètres déterminent l'ensemble des informations qui peuvent en être tirées. « Voir et comprendre l'auteur d'une œuvre, c'est en voir et comprendre un autre, la conscience d'autrui et son monde, c'est-à-dire un autre sujet », écrit M.M. Bakhtine. Ainsi, tant en matière de datation que de localisation et d’attribution, deux problèmes interdépendants sont résolus :

Références directes à l'auteur. Une base importante pour établir l’identité personnelle est l’indication directe du propre nom ou anthroponom de la personne. période ancienne Notre histoire fait la distinction entre un nom canonique (parrain, monastique ou schématique) et un nom non canonique. En conséquence, comme le note E.M. Zagorulsky, - on a parfois l'impression que différents princes agissent, alors qu'en réalité ils sont une seule et même personne.

L'identification des caractéristiques de l'auteur était assez souvent réalisée en enregistrant des détails externes du style de l'auteur inhérent à une personne particulière et, en particulier, les mots et termes préférés, ainsi que les tournures et expressions phraséologiques (style de l'auteur).

La théorie des styles, dont V.V. a apporté une contribution significative au développement, s'est répandue dans l'établissement de la paternité. Vinogradov. Selon le système de V.V. Vinogradov, les indicateurs déterminants de la généralité du style sont les caractéristiques lexicales et phraséologiques, puis les caractéristiques grammaticales. Dans le même temps, il faut tenir compte du danger de confondre le groupe social ou le genre avec l’individu.

L'utilisation de cette approche est souvent compliquée par le fait que l'auteur imite souvent le fait d'être un compilateur ordinaire. La crise des méthodes d'attribution traditionnelles a conduit au fait que dans les années 1960-1970. Le nombre de chercheurs a progressivement commencé à augmenter, développant de nouvelles méthodes mathématiques et statistiques pour établir la paternité. L'utilisation de la technologie informatique a contribué à la croissance quantitative de ces études et à l'expansion de leur géographie. A noter le travail de formalisation des textes mené par une équipe de chercheurs de l'Université d'État de Moscou (L.V. Milov ; L.I. Borodkin, etc.). Dans le texte formalisé, des occurrences appariées (c'est-à-dire des quartiers) de certaines classes (formes) ont été identifiées.

Critique externe– comprend l’analyse des caractéristiques externes du matériel existant afin d’établir son origine probable et son authenticité. paternité, heure et lieu de création, ainsi que papier, écriture manuscrite, langue, vérification des modifications et insertions...

critique interne. Ici, le travail ne se fait plus sur la forme, mais sur le contenu. Les procédures de critique interne sont donc plus pertinentes pour les sources de l'auteur. De plus, tant le contenu du texte que l'identité de l'auteur (si elle a pu être établie) sont analysés. Qui en était l'auteur ? Quels intérêts de groupe pourrait-il défendre ? Dans quel but ce texte a-t-il été créé ? À quel public était-il destiné ? Comment les informations contenues dans ce texte se comparent-elles à d’autres sources ?

Le mot « information » vient du latin information, qui se traduit par explication, présentation. DANS dictionnaire explicatif DANS ET. Dahl n’a pas le mot « information ». Le terme « information » est utilisé dans le discours russe depuis le milieu du XXe siècle.

Dans une large mesure, le concept d'information doit sa diffusion à deux orientations scientifiques: théorie de la communication Et cybernétique. Le résultat du développement de la théorie de la communication a été théorie de l'information, fondée par Claude Shannon. Cependant, K. Shannon n'a pas défini l'information, tout en définissant quantité d'informations. La théorie de l'information est consacrée à la résolution du problème de la mesure de l'information.

Dans la science cybernétique, fondée par Norbert Wiener, la notion d'information est centrale (voir "Cybernétique"). Il est généralement admis que c'est N. Wiener qui a introduit le concept d'information dans l'usage scientifique. Cependant, dans son premier livre sur la cybernétique, N. Wiener ne définit pas l'information. " L'information est de l'information, pas de la matière ou de l'énergie.», a écrit Wiener. Ainsi, le concept d'information, d'une part, s'oppose aux concepts de matière et d'énergie, d'autre part, il se place sur un pied d'égalité avec ces concepts par le degré de leur généralité et de leur fondamentalité. À partir de là, il est au moins clair que l’information est quelque chose qui ne peut être attribuée ni à la matière ni à l’énergie.

L'information en philosophie

La science philosophique traite de la compréhension de l’information comme concept fondamental. Selon l'un des concepts philosophiques, l'information est une propriété de tout ce qui existe, tous les objets matériels du monde. Cette notion d'information est appelée attributif (l'information est un attribut de tous les objets matériels). L'information dans le monde est apparue avec l'Univers. Dans ce sens l'information est une mesure de l'ordre et de la structure de tout système matériel. Les processus de développement du monde depuis le chaos initial survenu après le « Big Bang » jusqu'à la formation de systèmes inorganiques, puis de systèmes organiques (vivants), sont associés à une augmentation du contenu informationnel. Ce contenu est objectif, indépendant de la conscience humaine. Un morceau de charbon contient des informations sur des événements survenus dans les temps anciens. Cependant, seul l’esprit curieux d’une personne peut extraire cette information.

Un autre concept philosophique de l'information s'appelle fonctionnel. Selon l'approche fonctionnelle, l'information est apparue avec l'émergence de la vie, car elle est associée au fonctionnement de systèmes auto-organisés complexes, qui comprennent les organismes vivants et la société humaine. On peut aussi dire ceci : l'information est un attribut caractéristique uniquement de la nature vivante. C'est l'un des caractéristiques essentielles qui séparent les vivants des non-vivants dans la nature.

Le troisième concept philosophique de l'information est anthropocentrique, selon lequel l'information n'existe que dans la conscience humaine, dans la perception humaine. Activités d'information inhérent uniquement à l'homme, se produit dans systèmes sociaux. En créant des technologies de l'information, une personne crée des outils pour ses activités d'information.

On peut dire que l'utilisation du concept « information » dans la vie quotidienne s'effectue dans un contexte anthropocentrique. Il est naturel pour chacun d’entre nous de percevoir l’information comme des messages échangés entre des personnes. Par exemple, les médias – les médias sont conçus pour diffuser des messages et des informations auprès de la population.

Informations en biologie

Au XXe siècle, le concept d’information imprègne la science partout. La biologie étudie les processus d'information dans la nature vivante. La neurophysiologie (une branche de la biologie) étudie les mécanismes de l'activité nerveuse chez les animaux et les humains. Cette science construit un modèle des processus d'information se produisant dans le corps. Les informations provenant de l'extérieur sont converties en signaux de nature électrochimique, qui sont transmis des organes sensoriels le long des fibres nerveuses aux neurones (cellules nerveuses) du cerveau. Le cerveau transmet des informations de contrôle sous forme de signaux de même nature aux tissus musculaires, contrôlant ainsi les organes du mouvement. Le mécanisme décrit s'accorde bien avec le modèle cybernétique de N. Wiener (voir. "Cybernétique").

Dans une autre science biologique - la génétique, le concept est utilisé informations héréditaires, intégré dans la structure des molécules d'ADN présentes dans les noyaux des cellules des organismes vivants (plantes, animaux). La génétique a prouvé que cette structure est une sorte de code qui détermine le fonctionnement de tout l'organisme : sa croissance, son développement, ses pathologies, etc. Grâce aux molécules d'ADN, les informations héréditaires se transmettent de génération en génération.

Lorsque vous étudiez l'informatique à l'école de base (cours de base), vous ne devez pas vous plonger dans la complexité du problème de la définition de l'information. La notion d'information est donnée dans un contexte significatif :

Information- c'est le sens, le contenu des messages reçus par une personne de monde extérieurà travers ses sens.

La notion d'information se révèle à travers la chaîne :

message - sens - information - connaissance

Une personne perçoit les messages en utilisant ses sens (principalement par la vision et l'ouïe). Si une personne comprend signification, contenu dans un message, alors on peut dire que ce message apporte à une personne information. Par exemple, un message dans une langue inconnue ne contient pas d'informations sur une personne donnée, mais un message dans langue maternelle clair, donc informatif. Les informations perçues et stockées en mémoire se reconstituent connaissance personne. Notre connaissance- il s'agit d'informations systématisées (liées) dans notre mémoire.

Lorsqu'on révèle le concept d'information du point de vue d'une approche de contenu, il faut partir des idées intuitives sur l'information dont disposent les enfants. Il est conseillé de mener la conversation sous forme de dialogue, en posant aux étudiants des questions auxquelles ils sont capables de répondre. Les questions, par exemple, peuvent être posées dans l’ordre suivant.

- Dites-nous d'où vous tirez vos informations ?

Vous entendrez probablement en réponse :

Des livres, des émissions de radio et de télévision .

- Ce matin j'ai entendu la météo à la radio .

Ayant saisi cette réponse, l'enseignant amène les élèves à la conclusion finale :

- Donc, au début, vous ne saviez pas quel temps il ferait, mais après avoir écouté la radio, vous avez commencé à le savoir. Ainsi, après avoir reçu des informations, vous avez acquis de nouvelles connaissances !

Ainsi, l'enseignant, avec les élèves, arrive à la définition : informationpour une personne, il s’agit d’informations qui complètent ses connaissances, qu’elle reçoit de diverses sources. De plus, cette définition devrait être renforcée à l’aide de nombreux exemples familiers aux enfants.

Après avoir établi un lien entre l’information et les connaissances des gens, on arrive inévitablement à la conclusion que l’information est le contenu de notre mémoire, car la mémoire humaine est un moyen de stocker des connaissances. Il est raisonnable d'appeler ces informations des informations internes et opérationnelles qu'une personne possède. Cependant, les personnes stockent des informations non seulement dans leur propre mémoire, mais également dans des notes sur papier, sur support magnétique, etc. Ces informations peuvent être qualifiées d'externes (par rapport à une personne). Pour qu'une personne puisse l'utiliser (par exemple, préparer un plat selon recette culinaire), il doit d'abord le lire, c'est-à-dire changer en forme interne, puis effectuez certaines actions.

La question de la classification des connaissances (et donc des informations) est très complexe. Il existe différentes approches scientifiques. Les spécialistes du domaine sont particulièrement impliqués dans cette problématique. intelligence artificielle. Dans le cadre du cours de base, il suffit de se limiter à diviser les connaissances en déclaratif Et de procédure. La description de la connaissance déclarative peut commencer par les mots : « Je sais que… ». Description des connaissances procédurales - à partir des mots : « Je sais comment… ». Il n'est pas difficile de donner des exemples des deux types de connaissances et d'inviter les enfants à proposer leurs propres exemples.

L'enseignant doit être bien conscient de l'importance propédeutique de discuter de ces questions pour la future connaissance des élèves avec la structure et le fonctionnement d'un ordinateur. Un ordinateur, comme une personne, possède une mémoire interne - RAM - et une mémoire externe - à long terme. La division des connaissances en déclaratives et procédurales peut en outre être liée à la division des informations informatiques en données - informations déclaratives et programmes - informations procédurales. L'utilisation de la technique didactique d'une analogie entre la fonction informationnelle d'une personne et un ordinateur permettra aux étudiants de mieux comprendre l'essence de la structure et du fonctionnement d'un ordinateur.

Partant de la position « les connaissances d'une personne sont des informations stockées », l'enseignant informe les élèves que les odeurs, les goûts et les sensations tactiles (tactiles) transmettent également des informations à une personne. La raison en est très simple : puisque nous nous souvenons d'odeurs et de goûts familiers, reconnaissons des objets familiers au toucher, cela signifie que ces sensations sont stockées dans notre mémoire et constituent donc des informations. D'où la conclusion : avec l'aide de tous ses sens, une personne reçoit des informations du monde extérieur.

Tant d’un point de vue contenu que méthodologique, il est très important de distinguer le sens des concepts » information" Et " données”. Vers la représentation de l’information dans tout système de signalisation(y compris ceux utilisés dans les ordinateurs) le terme devrait être utilisédonnées" UN information- Ce la signification contenue dans les données, donnée par une personne et compréhensible uniquement par une personne.

L'ordinateur fonctionne avec des données: reçoit les données d'entrée, les traite, transmet les données de sortie à la personne - résultats. L'interprétation sémantique des données est réalisée par une personne. Néanmoins, dans le langage courant et dans la littérature, on dit et écrit souvent qu'un ordinateur stocke, traite, transmet et reçoit des informations. Cela est vrai si l'ordinateur n'est pas séparé de la personne, le considérant comme un outil à l'aide duquel une personne effectue des processus d'information.

1. Andreïeva E..DANS.,Bosova L..L.,Falina Ier.N. Fondements mathématiques de l'informatique. Cours au choix. M. : BINOM. Laboratoire de la Connaissance, 2005.

2. Bechenkov S.UN.,Rakitina E..UN. L'informatique. Cours systématique. Manuel pour la 10e année. M. : Laboratoire des Connaissances Fondamentales, 2001, 57 p.

3.Wiener N.. Cybernétique, ou contrôle et communication chez les animaux et les machines. M. : Radio soviétique, 1968, 201 p.

4. Informatique. Livre-atelier à problèmes en 2 volumes / Ed. I.G. Semakina, E.K. Henner. T. 1. M. : BINOM. Laboratoire de la Connaissance, 2005.

5. Kuznetsov A.A., Beshenkov S.A., Rakitina E.A., Matveeva N.V., Milokhina L.V. Cours continu en informatique (concept, système de modules, programme standard). Informatique et éducation, n° 1, 2005.

6. Dictionnaire encyclopédique mathématique. Rubrique : « Dictionnaire de l'informatique scolaire ». M. : Encyclopédie soviétique, 1988.

7.Friedland A..je. Informatique : processus, systèmes, ressources. M. : BINOM. Laboratoire de la Connaissance, 2003.



Lire aussi :