[/b/] [/d/] [/tu/] [/a/] [/34/] [/ph/] [/wa/] [/cg/] [/t/]

[Burichan] [Futaba] [Gurochan] [Photon] - [Home] [Manage] [Archive]

[Return]
Posting mode: Reply
Leave these fields empty (spam trap):
Name
Link
Subject
Comment
File
Verification
Password (for post and file deletion)
  • Supported file types are: GIF, JPG, PDF, PNG
  • Maximum file size allowed is 20480 KB.
  • Images greater than 200x200 pixels will be thumbnailed.

File: 1315119699759.jpg -(287720 B, 985x738) Thumbnail displayed, click image for full size.
287720 No.67479  

Что это? С чем едят? Как считают? Какую опасность представляют для мира, где информация - главная ценность?

>> No.67480  
File: 1315120143434.jpg -(437226 B, 1100x823) Thumbnail displayed, click image for full size.
437226

>>67479

> Что это? С чем едят? Как считают?

http://ru.wikipedia.org/wiki/Информационная_энтропия

> Какую опасность представляют для мира, где информация - главная ценность?

Опасности не представляет, просто информация с высоким уровнем энтропии хуже поддается сжатию.

>> No.67481  
File: 1315122620608.jpg -(120178 B, 850x601) Thumbnail displayed, click image for full size.
120178

>>67480

>http://ru.wikipedia.org/wiki/Информационная_энтропии

Спасибо кэп, что бы я без вас делал...

>Опасности не представляет, просто информация с высоким уровнем энтропии хуже поддается сжатию.

При достаточно высоком уровне энтропии не зависимо от кодировки информацию без потерь вообще передать нельзя тащемта, особенно если шумы хаотичны.

>> No.67484  
File: 1315127672669.jpg -(89625 B, 640x411) Thumbnail displayed, click image for full size.
89625

>>67481

> При достаточно высоком уровне энтропии не зависимо от кодировки информацию без потерь вообще передать нельзя тащемта

Ты сделал мой день.

>> No.67487  

>>67484
Ок, тогда объясни мне что такое эта ваша информационная энтропия.

>> No.67488  
File: 1315156587433.jpg -(214150 B, 742x550) Thumbnail displayed, click image for full size.
214150

>>67487
Ссылка на вику была выше. Если в трех словах то что-то вроде "уровня хаотизации информации"

>> No.67490  
File: 1315158549338.jpg -(178451 B, 850x850) Thumbnail displayed, click image for full size.
178451

>>67488

>уровня хаотизации информации

Ну вот, наши взгляды совпадают. Так получается что энтропия есть хаос, дезорганизация. Как следствие, при передаче данных чем выше энтропия - тем выше вероятность того, что информация будет исковеркана и никакие хитрые алгоритмы не помогут.

>> No.67491  

насколько я помню, энтропия есть уровень знания получателя о принимаемых данных. если энтропия равна нулю, то мы знаем получаемые данные не передавая их.

а вообще у неё много значений.

>> No.67493  
File: 1315160191949.jpg -(53684 B, 850x385) Thumbnail displayed, click image for full size.
53684

>>67491
Но мы говорим именно об информационной.
Я предлагаю Шеноновское определение.

>информация — противоположность энтропии (хаоса, неопределенности, беспорядка), следовательно, она есть возможность уменьшения неопределенности: чем больше информации содержит система, тем выше степень ее упорядоченности
>> No.67495  
File: 1315160946804.jpg -(341632 B, 1080x1920) Thumbnail displayed, click image for full size.
341632

>>67490
почему ты думаешь, что хаотичная информация не может быть разбита на маленькие куски, попадающие под какой-то паттерн?

>> No.67496  
File: 1315161244824.jpg -(270346 B, 850x1133) Thumbnail displayed, click image for full size.
270346

>>67495

>почему ты думаешь, что хаотичная информация не может быть разбита на маленькие куски, попадающие под какой-то паттерн?

Потому, что она "хаотичная" то есть формируется без каких-либо определённых законов. А твои "маленькие куски" могут быть бинарными сигналами - ценности не представляющими.

Алсо, определение информационного хаоса в студию.

>> No.67500  
File: 1315166283865.jpg -(15625 B, 379x300) Thumbnail displayed, click image for full size.
15625

>>67490

> Как следствие, при передаче данных чем выше энтропия - тем выше вероятность того, что информация будет исковеркана и никакие хитрые алгоритмы не помогут.
>> No.67501  

>>67500
Пруф?

>> No.67502  
File: 1315166556190.jpg -(156469 B, 674x600) Thumbnail displayed, click image for full size.
156469

>>67501

>> No.67504  
File: 1315167427572.jpg -(16979 B, 578x109) Thumbnail displayed, click image for full size.
16979
>> No.67512  
File: 1315204303593.jpg -(10992 B, 360x326) Thumbnail displayed, click image for full size.
10992

>>67502
И что это.

Объясните на пальцах же - что такое эта ваша энтропия и с чем её едят?

>> No.67518  
File: 1315234832236.png -(2807 B, 392x68) Thumbnail displayed, click image for full size.
2807

>>67512
Тебе же объясняли, но ты начинаешь нести десу же.

>> No.67552  

>>67518
Я не могу понять в чём измеряется хаотичность и почему вы утверждаете что информация при этом не теряется. Вот например сигнал "nowere" как посчитать его информационную энтропию?

>> No.67559  

>>67552

> Я не могу понять в чём измеряется хаотичность

У нее нет каких-то конкретных единиц измерения.

> почему вы утверждаете что информация при этом не теряется

Потому что она не теряется.

> Вот например сигнал "nowere" как посчитать его информационную энтропию?

Считаем вероятность появления каждого символа n=1/6, o=1/6, w=1/6, e=1/3, r=1/6; дальше используем формулу Шенона: -(1/6*log(1/6)*4/log(2)+1/3*log(1/3)/log(2))=~2.25

>> No.67570  

>>67559

>У нее нет каких-то конкретных единиц измерения.

И её бессмысленно сравнивать? Тогда зачем она нужна?

>Потому что она не теряется.

Энтропия - антипод информации. Ты получаешь меньше информации и теряешь исходное послание.

>Считаем вероятность появления каждого символа n=1/6, o=1/6, w=1/6, e=1/3, r=1/6; дальше используем формулу Шенона: -(1/6*log(1/6)*4/log(2)+1/3*log(1/3)/log(2))=~2.25

Горжусь новерем и тобой в частности, но что бы ты сделал если бы ты не знал что зашифрованно именно "nowere"? Тогда тебе пришлось бы считать через все возможные слова + их вероятности?Да и не факт что ты собрал бы новерь при большой энтропии, а не полиндром?

>> No.67571  
File: 1315261657101.jpg -(263360 B, 1200x1702) Thumbnail displayed, click image for full size.
263360

>>67570

> И её бессмысленно сравнивать? Тогда зачем она нужна?

Нет, просто это безразмерная величина.

> Энтропия - антипод информации.

Wrong.

> но что бы ты сделал если бы ты не знал что зашифрованно именно "nowere"?

Не зная самой информации нельзя оценить ее энтропию.

>> No.67602  

>>67479
Никакой опасности. Уровень шума способствует самоорганизации в диссипативных системах.

>> No.67640  
File: 1315352944715.png -(311899 B, 640x427) Thumbnail displayed, click image for full size.
311899

>>67570
да ты же просто путаешь энтропию сложной системы (источник + приемник), где можно посчитать условную энтропию - мера, которая может охарактеризовать потери информации в канале, и, собственно, информационную энтропию, что есть мера однородности распределения разных символов в сообщении.
Пример:
"фшфшфшфш" и "ффффшшшш" - при одинаковом алфавите сообщений и одинаковой длине у первого сообщения больше энтропия чем у второго. Сечешь?

>> No.67710  
File: 1315507028369.jpg -(206909 B, 500x500) Thumbnail displayed, click image for full size.
206909

cat /dev/urandom | grep shit
x0k?bshit/??G?%?zA??)0??j ?_bO}i\?֌??͆?xq?=??~w[ӣ???
gk??O?3|=<<N?X??Ih?ໄK???9?~?shit2?s5Lpv?1ȟV?a?Lź???OfS????????bc?????



Delete Post []
Password

[/b/] [/d/] [/tu/] [/a/] [/34/] [/ph/] [/wa/] [/cg/] [/t/]