Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "informacja Fishera" wg kryterium: Temat


Wyświetlanie 1-3 z 3
Tytuł:
Information Theory in the mathematical Statistics
Autorzy:
Inglot, Tadeusz
Powiązania:
https://bibliotekanauki.pl/articles/747349.pdf
Data publikacji:
2014
Wydawca:
Polskie Towarzystwo Matematyczne
Tematy:
Entropy, Kullback-Leibler distance, Fisher informa- tion, entropy convergence, statistical model and source coding, Stein's Lemma, density estimation.
Entropia, odległość Kullbacka-Leiblera, informacja Fishera, zbieżność entropii, lemat Steina, model statystyczny a kodowanie źródła, estymacja gęstości
Opis:
W niniejszym artykule przedstawiony jest zarys teorii informacji z probabilistycznego i statystycznego punktu widzenia. Ten nurt teorii informacji rozwijał się intensywnie w ostatnich dziesięcioleciach. Wpłynął też w znaczący sposób na rozwój metod statystycznych. Celem artykułu jest wprowadzenie czytelnika w przystępny sposób w podaną powyżej tematykę, dostarczenie mu pewnych intuicji i przybliżenie specyfiki podejścia teorio-informacyjnego w statystyce matematycznej.
In the paper we present an outline of the information theory from the probabilistic and statistical point of view. Such a direction of the information theory has been intensively developed in recent decades and significantly influenced a progress in the statistical methodology. The aim of the article is to introduce the reader into these problems, provide some intuitions and acquaint with a specific information-theoretic approach to the mathematical statistics.The first part of the paper is devoted to brief and easy of approach introduction to the main notions of the information theory like entropy, relative entropy (Kullback-Leibler distance), information projection and Fisher information as well as presentation of their most important properties including de Bruijn's identity, Fisher information inequalities and entropy power inequalities. In the short second part we give applications of the notions and results from the first part to limit theorems of the probability theory such as the asymptotic equipartition property, the convergence of empirical measures in the entropy distance, large deviation principle with emphasis to Sanov theorem, the convergence of distributions of homogeneous Markov chains in the entropy distance and the central limit theorem. The main, last part of the article shows some most significant and important applications of the information theory to the mathematical statistics. We discuss connections of the maximum likelihood estimators with the information projections and the notion of sufficient statistic fromthe information-theoretic point of view. The problems of source coding, channel capacity and an amount of information provided by statistical experiments are presented in a statistical framework. Some attention is paid to the expansion of Clarke and Barron and its corollaries e.g. in density estimation. Next, applications of the information theory to hypothesis testing is discussed. We give the classical Stein's Lemma and its generalization to testing composite hypothesis obtained by Bahadur and show their connections with the asymptotic efficiency of statistical tests. Finally, we briefly mention the problem of information criteria in a model seletion including the most popular two-stage minimal description length criterion of Rissanen. The enclosed literature is limited only to papers and books which are referred to in the paper.
Źródło:
Mathematica Applicanda; 2014, 42, 1
1730-2668
2299-4009
Pojawia się w:
Mathematica Applicanda
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
O wiązaniu chemicznym inaczej
On the chemical bond differently
Autorzy:
Nalewajski, R.F.
Powiązania:
https://bibliotekanauki.pl/articles/172051.pdf
Data publikacji:
2011
Wydawca:
Polskie Towarzystwo Chemiczne
Tematy:
entropowe krotności wiązań
kryteria lokalizacji elektronów i wiązań chemicznych
kwadratowe rzędy wiązań
molekularny układ komunikacyjny
nieaddytywna informacja Fishera
orbitalna teoria komunikacyjna
pośredni mechanizm wiązań
teoria informacji
wiązanie chemiczne
chemical bond
entropic bond multiplicities
localization criteria for electrons
molecular communication channel
non-additive Fisher information
orbital communication theory
quadratic bond orders
indirect bonding mechanism
information theory
Opis:
Artykuł podsumowuje alternatywne detektory struktury elektronowej i wiązań chemicznych cząsteczek niedawno sformułowane w ramach teorii informacji (IT). Redystrybucja elektronów towarzysząca tworzeniu wiązań, od wolnych atomów promolekuły (w pozycjach molekularnych) do związanych atomów cząsteczki (AIM), generuje stowarzyszone zmiany w rozkładach alternatywnych miar zawartości informacji w prawdopodobieństwach elektronowych. Te gęstości informacji stanowią czułe próbniki entropowej genezy oraz struktury/krotności wiązań chemicznych. Pokazano, że lokalne zmiany w molekularnej entropii Shannona i utraconej informacji (brakującej entropii) względem odniesienia promolekularnego dostarczają efektywnych narzędzi do wykrywania/lokalizowania wiązań chemicznych i monitorowania zmian w promocji/hybrydyzacji atomów związanych w otoczeniu molekularnym. Gęstość ujemnej nieaddytywnej informacji Fishera w rozdzielczości orbitali atomowych (AO ) podobnie generuje kryterium kontragradiencji (CG) efektywnej lokalizacji obszarów wiążących w układach molekularnych. Przedstawione będą ilustracyjne zastosowania tych nowych narzędzi w eksploracji struktury elektronowej i sieci wiązań chemicznych w wybranych cząsteczkach. Wprowadzona zostanie orbitalna teoria komunikacyjna (OCT) wiązania chemicznego, która może być zastosowana zarówno do rozpoznania sumarycznych/ zlokalizowanych rzędów wiązań jak też ich charakteru kowalencyjno-jonowego. W tym opisie cząsteczka jest treaktowana jako układ informacyjny, w którym propagowane są prawdopopodobieństwa („sygnały”) odpowiednich zdarzeń przynależności elektronów do funkcji bazowych. Ta molekularna sieć komunikacyjna generuje entropowe miary krotności wiązania chemicznego oraz jego komponent, kowalencyjnej (szumu komunikacyjnego) i jonowej (przepływu informacji), zarówno dla cząsteczki jako całości oraz jej fragmentów dwuatomowych. Prawdopodobieństwa warunkowe wyznaczające to rozpraszanie informacji w cząstecze lub jej wybranych fragmentach określa zasada superpozycji stanów mechaniki kwantowej zastosowana do podprzestrzeni wiązań chemicznych cząsteczki wyznaczonej przez jej zajęte orbitale molekularne (MO). Te prawdopodobieństwa są propoporcjonalne do kwadratów odpowiednich elementów macierzy gęstości, w standardowej teorii SCF LCAO MO znanej także pod nazwą macierzy ładunków i rzędów wiązań (CBO), związanych z indeksem Wiberga mierzącym krotność wiązania chemicznego. OCT stosuje typowe dla IT deskryptory rozpraszania prawdopodobieństw elektronowych w sieci komunikacyjnej generowanej przez wiązania chemiczne cząsteczki: średnia entropia warunkowa (molekularnego) „wyjścia” przy zadanym (molekularnym) „wejściu” mierzy szum komunikacyjny kanału na skutek delokalizacji elektronów, tym samym odzwierciedlając (w bitach) kowalencję wiązań chemicznych cząsteczki, podczas gdy komplementarny indeks wzajemnej informacji (promolekularnego) „wejścia” i molekularnego „wyjścia” (informacyjnej przepustowości) kanału wyznacza ich łączną jonowość. Przedstawiona zostanie argumentacja poglądu, że pojęcie wiązania chemicznego obejmuje wszystkie typy wzajemnych zależności między AO użytymi do reprezentacji podprzestrzeni wiązań chemicznych cząsteczki. W takiej uogólnionej perspektywie dddziaływanie między zadaną parą AO w układzie molekularnym obejmuje zarówno źródła bezpośrednie, od konstruktywnej interferencji zadanej pary AO w MO, oraz pośrednie, od uwikłanych zależości między tą parą AO w molekularnej podprzestrzeni wiązań chemicznych poprzez pozostałe funkcje bazy na skutek ich jednoczesnego uczestnictwa we wszystkich wiązaniach chemicznych układu. Tak więc przyczynki pośrednie (poprzez „mostek” orbitalny) uzupełniają znane wkłady bezpośrednie (poprzez „przestrzeń”) w wypadkowych miarach krotności wiązań chemicznych molekuł. Miary tych uwikłanych składowych wiązania chemicznego, realizowanych przez orbitalnych pośredników, można wyznaczyć zarówno w teorii SCF MO, stosując zmodyfikowane indeksy Wiberga, oraz w IT – poprzez entropowe deskryptory pośrednich (kaskadowych) systemów komunikacji. Jawne (bezpośrednie) i uwikłane (pośrednie) zależności między funkcjami bazy w podprzestrzeni wiązań chemicznych cząsteczki można wyrazić przez odpowiednie elementy macierzy CBO. Związane z nimi prawdopodobieństwa warunkowe, definiujące bezpośrednią i mostkową (kaskadową) propagację prawdopodobieństw elektronowych między AO , wyznaczają w ramach OCT odpowiednie deskryptory IT tych oddziaływań. Przedyskutowane zostaną ilustracyjne rezultaty otrzymane z teorii Hückela i obliczeń metodą Hartree-Focka (RHF) dla wybranych układów .-elektronowych oraz ze standardowych obliczeń SCF MO i Kohna-Shama (KS) dla butadienu, benzenu i reprezentacyjnych polimerów. Wypadkowe indeksy wiązań, łączące bezpośrednie i pośrednie przyczynki ich krotności, dają bardziej zrównoważoną perspektywę rozkładu wiązań w porównaniu do bardziej dychotomicznego obrazu wynikającego z oryginalnego ujęcia Wiberga, opartego wyłącznie na składowej bezpośredniej. Przykład liniowych polimerów demonstruje, że w przeciwieństwie do wiązań bezpośrednich, które mogą powstawać jedynie między wzajemnie nakładającymi się orbitalami na stosunkowo niewielkich odległościach, mechanizm pośredni efektywnie wydłuża ten zasięg na dalszych sąsiadów łańcucha polimeru.
Alternative probes of the molecular electronic and bond structure recently derived in the Information-Theory (IT) are surveyed. The electron redistribution accompanying the bond formation, from the (molecularly placed) free atoms of the promolecule to the bonded Atoms-in-Molecules (AIM), generates the associated displacements in alternative measures of the information content of electronic probabilities. It is shown that these information densities represent sensitive probes into the entropic origins and the structure/multiplicity of chemical bonds. Local displacements in the molecular Shannon entropy and the missing information (entropy deficiency) relative to the promolecular reference provide efficient tools for detecting/localizing the chemical bonds and monitoring the promotion/hybridization changes the bonded atoms undergo in the molecular environment. The distribution of the negative non-additive Fisher information in the Atomic Orbital (AO ) resolution similarly generates the "Contra-Gradience" (CG) probe for localizing the bonding regions in molecules. Illustrative applications of these novel IT tools in exploring the electronic structure and patterns of chemical bonds in typical molecules are reported. The Orbital Communication Theory (OCT) of the chemical bond is introduced. It can be used to explore both the the overall/localized bond-orders and their covalent/ionic composition. In this description the molecule is treated as the information system which propagates the probabilities ("signals") of the underlying AO "events" of the electron allocations to basis functions. This molecular communication network generates the entropic measures of the chemical bond multiplicity and its covalent (communication noise) and ionic (information flow) components for both the molecule as a whole and its diatomic fragments. The conditional probabilities of this information scattering throughout the molecule or the subsystems of interest are generated from the superposition principle of quantum mechanics, applied in the bonding subspace of the molecule determined by the system occupied Molecular Orbitals (MO). They are proportional to the squares of the corresponding elements of the first-order density matrix, also known in the standard SCF LCAO MO MO theory as the Charge-and-Bond-Order (CBO) matrix, which are related to the quadratic (Wiberg) index of the chemical bond multiplicity. OCT uses the standard IT descriptors of the molecular information channel to characterize the scattering of electron probabilities throughout the communication network via to the system chemical bonds: the average conditional-entropy of the molecular "output" distribution given the molecular "input" signal measures the channel communication-noise due to electron delocalization and reflects the overall IT-covalency in the molecule, while the complementary descriptor of the network mutual-information (information-capacity) in the promolecular "input" and molecular "output" determines the system IT-ionicity. The diatomic bond multiplicities from OCT reproduce the Wiberg bond-order in diatomic molecules and generate efficient tools for indexing the connectivities between AIM, at the same time providing an adequate representation of the bond differentiation known from intuitive chemical considerations. It is argued that the chemical bond concept embodies all dependencies between AO used to construct the bonding subspace of the molecule. The interaction between the specified pair of AO in the molecule thus exhibits both of the direct and indirect sources: the former results from the constructive interference between the two basis functions, while the latter have their roots in the implicit dependencies between the given basis functions through their dependence upon remaining AO in the molecular bonding subspace, due to their joint participation in the chemical bond system. Therefore, the indirect (through-bridge) contributions complement the familiar direct (through-space) bonds in the resultant pattern of the bond multiplicities in molecules. These implicit bond components, realized via AO intermediates, can be probed using both the "quadratic" bond orders of Wiberg and the associated IT descriptors of the cascade communications between AO . The explicit and implicit dependencies between basis functions in the bonding subspace can be both expressed in terms of the relevant elements of the molecular CBO matrix. The conditional probabilities of the direct and bridge (cascade) propagations of electronic probabilities between AO then determine in OCT the associated IT descriptors of these interactions. Representative results from the Hückel theory for illustrative π-electron systems (benzene, butadiene and linear polyenes) and from the standard Hartree-Fock (RHF) and Kohn-Sham (KS) calculations on butadiene, benzene and selected linear polymers are discussed. The resultant bond indices, combining the direct and indirect multiplicity contributions, are shown to generate a more balanced bonding perspective, compared to that resulting from the direct (Wiberg) bondorder approach. As illustrated for linear polymers, the direct bonding can be realized at relatively short distances, while the indirect mechanism effectively extends this range to more distant neighbors in the polymer chain.
Źródło:
Wiadomości Chemiczne; 2011, 65, 9-10; 729-794
0043-5104
2300-0295
Pojawia się w:
Wiadomości Chemiczne
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
On an operational model of single investment selection with information cost
O pewnym operatywnym modelu wyboru pojedynczej inwestycji z kosztem informacji
Autorzy:
Banek, T.
Kozłowski, E.
Powiązania:
https://bibliotekanauki.pl/articles/206710.pdf
Data publikacji:
2003
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
portfel inwestycyjny
koszt informacji
informacja Fishera
optymalny czas zakończenia
portfolio
information cost
Fisher information
optimal stopping time
Opis:
An operational model of portfolio selection is presented. The target of a risk-neutral investor is to select the best portfolio composed of assets with the highest rate of return. The term "best" means that probability of attaining the return required by an investor is the largest for all possible stopping times, for which s/he has the right to buy information concerning the random vector of returns from investments (assets).
Zaprezentowano pewien operatywny model wyboru portfela inwestycyjnego. Celem inwestora neutralnego względem ryzyka jest wybór najlepszego portfela złożonego z walorów o najwyższych stopach zwrotu. Pojęcie "najlepszy" oznacza, że prawdopodobieństwo osiągnięcia zwrotu wymaganego przez inwestora jest najwyższe dla wszystkich możliwych czasów stopu, przy których inwestor ma prawo zakupu informacji dotyczącej losowego wektora zwrotów z inwestycji (z walorów).
Źródło:
Control and Cybernetics; 2003, 32, 1; 87-102
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-3 z 3

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies