0% found this document useful (0 votes)
16 views77 pages

64818

The document provides an overview of the book 'Advanced Probability and Statistics: Applications to Physics and Engineering' by Harish Parthasarathy, which focuses on advanced concepts in probability and statistics relevant to physics and engineering. It covers classical and quantum probabilities, stochastic processes, and their applications in various fields, including signal processing and quantum mechanics. The book also discusses significant contributions from eminent scientists in the field and includes practical applications of advanced probability theory in areas such as robotics and quantum scattering theory.

Uploaded by

nachwakevar82
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
16 views77 pages

64818

The document provides an overview of the book 'Advanced Probability and Statistics: Applications to Physics and Engineering' by Harish Parthasarathy, which focuses on advanced concepts in probability and statistics relevant to physics and engineering. It covers classical and quantum probabilities, stochastic processes, and their applications in various fields, including signal processing and quantum mechanics. The book also discusses significant contributions from eminent scientists in the field and includes practical applications of advanced probability theory in areas such as robotics and quantum scattering theory.

Uploaded by

nachwakevar82
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 77

Read Anytime Anywhere Easy Ebook Downloads at ebookmeta.

com

Advanced Probability and Statistics: Applications


to Physics and Engineering 1st Edition Harish
Parthasarathy

https://ebookmeta.com/product/advanced-probability-and-
statistics-applications-to-physics-and-engineering-1st-
edition-harish-parthasarathy/

OR CLICK HERE

DOWLOAD EBOOK

Visit and Get More Ebook Downloads Instantly at https://ebookmeta.com


Advanced Probability and Statistics:
Applications to Physics and
Engineering
Advanced Probability and Statistics:
Applications to Physics and
Engineering

Harish Parthasarathy
Professor
Electronics & Communication Engineering
Netaji Subhas Institute of Technology (NSIT)
New Delhi, Delhi-110078
First published 2023
by CRC Press
4 Park Square, Milton Park, Abingdon, Oxon, OX14 4RN
and by CRC Press
6000 Broken Sound Parkway NW, Suite 300, Boca Raton, FL 33487-2742
© 2023 Harish Parthasarathy and Manakin Press
CRC Press is an imprint of Informa UK Limited
The right of Harish Parthasarathy to be identified as author of this work has been asserted in
accordance with sections 77 and 78 of the Copyright, Designs and Patents Act 1988.
All rights reserved. No part of this book may be reprinted or reproduced or utilised in any
form or by any electronic, mechanical, or other means, now known or hereafter invented,
including photocopying and recording, or in any information storage or retrieval system,
without permission in writing from the publishers.
For permission to photocopy or use material electronically from this work, access www.
copyright.com or contact the Copyright Clearance Center, Inc. (CCC), 222 Rosewood Drive,
Danvers, MA 01923, 978-750-8400. For works that are not available on CCC please contact
[email protected]
Trademark notice: Product or corporate names may be trademarks or registered trademarks,
and are used only for identification and explanation without intent to infringe.
Print edition not for sale in South Asia (India, Sri Lanka, Nepal, Bangladesh, Pakistan or
Bhutan).
British Library Cataloguing-in-Publication Data
A catalogue record for this book is available from the British Library
Library of Congress Cataloging-in-Publication Data
A catalog record has been requested
ISBN: 9781032384375 (hbk)
ISBN: 9781032384382 (pbk)
ISBN: 9781003345060 (ebk)
DOI: 10.1201/9781003345060
Typeset in Arial, MinionPro, Symbol, CalisMTBol, TimesNewRoman, RupeeForadian,
Wingdings, ZapDingbats, Euclid, MT-Extra
by Manakin Press, Delhi
Preface
This book is primarily a book on advanced probability and statistics that
could be useful for undergraduate and postgraduate students of physics, engi-
neering and applied mathematics who desire to learn about the applications of
classical and quantum probability to problems of classical physics, signal pro-
cessing and quantum physics and quantum field theory. The prerequisites for
reading this book are basic measure theoretic probability, linear algebra, differ-
ential equations, stochastic differential equations, group representation theory
and quantum mechanics. The book deals with classical and quantum probabili-
ties including a decent discussion of Brownian motion, Poisson process and their
quantum non-commutative analogues. The basic results of measure theoretic
integration which are important in constructing the expectation of random vari-
ables are discussed. The Kolmogorov consistency theorem for the existence of
stochastic processes having given consistent finite dimensional probability dis-
tributions is also outlined. For doing quantum probability in Boson Fock space,
we require the construction of the tensor product between Hilbert spaces. This
construction based on the GNS principle, Schur’s theorem of positive definite
matrices and Kolmogorov’s consistency theorem has been outlined. The laws of
large numbers for sums of independent random variables are introduced here and
we state the fundamental inequalities and properties of Martingales originally
due to J.L.Doob culminating finally in the proof of the Martingale convergence
theorem based on the downcrossing/upcrossing inequalities. Doob’s Martingale
inequality can be used to give an easy proof of the strong law of large numbers
and we mention it here. Doob’s optional stopping theorem for submartingales is
proved and applied to calculating the distribution of the hitting times of Brow-
nian motion. We give another proof of this distribution based on the reflection
principle of Desire’ Andre which once again rests on the strong Markov property
of Brownian motion.

Applications of the theory of stochastic processes especially higher order


statistics and spectra to the characterizing of diseased brain EEG and speech
signals has also been discussed in here. Several different models of diseased
brain data have been proposed here as an application of higher order spectra.
These include (a) modeling the brain signals as the output of Volterra filters to
Gaussian signals and estimating the Volterra coefficients from the higher order
spectra of the output measured EEG, speech and MRI data, and (b) construct-
ing dynamical models for the speech, EEG and MRI signal field data as solutions
to partial differential equations in space-time with Gaussian noise input and then
estimating the parameters of these pde’s from noisy sparse measurements using
the extended Kalman filter. We propose this method as a training process for
determining the diseased brain parameters for each disease and then given fresh
data, we estimate the same parameters using the EKF and match it to those
obtained during the training process.
Here, we assume that the reader is familiar with non-linear filtering theory
based on the Kushner-Kallianpur approach. Of course, the derivation of this
filter requires knowledge of conditional expectations and Ito’s formula for Brow-
v
nian motion, and of course also basic facts about Markov processes. We also
in this section discuss group theoretic signal and image processing and apply
these methods also to EEG data analysis in the sense that when the dynam-
ics of the spatio-temporal dynamics of the EEG field data is invariant under a
Lie group of transformations acting on the spatial variables and also when the
noise has G-invariant statistics, how the dynamics can be simplified by taking
group theoretic Fourier transforms based on the irreducible representations of
the group. With a simplified dynamics, the parameters of the dynamical system
are more easily estimated. We also discuss statistical aspects of 3-dimensional
robot links with random torque using the techniques of Lie-group, Lie algebra
theory applied to the 3-dimensional rotation group. The theory of quantum
neural networks has also been outlined here. It involves estimating dynami-
cally the probability density of a random vector using the modulus square of a
wave function following Schrodinger’s equation and driven by a potential that
represents the difference between the true pde and the Schrodinger pdf. This
is a natural approach since the Schrodinger equation by virtue of its unitary
evolution has the property of naturally generating a whole family of probability
densities indexed by time, no matter what the driving potential is as long as it is
real, so that the Hamiltonian is a self-adjoint operator. In this section, we also
introduce the reader to how probabilities of events are computed in quantum
scattering theory based on the wave operators associated with two Hamiltoni-
ans. The ultimate aim of scattering theory is to get to know the asymptotic
probability distribution of scattered particles when the particles are free projec-
tiles which get to interact with a scattering centre. One important probabilistic
feature of scattering theory is to determine the relative average time spent by
the scattered particle within a Borel set in position space and we discuss this
problem here. We also discuss in this section some work carried out by the
author’s doctoral student along with the author on quantum image processing.
This involves encoding classical image fields into quantum states and designing
quantum unitary processors that will denoise this state and then decoding the
processed state back into a classical image field. The other parts of the work
carried out by the the author’s doctoral student along with the author deals with
estimating time varying classical parameters of a quantum electromagnetic field
(ie a quantum image field) by allowing the quantum field to interact with an
electron of an atom and measuring the transition probabilities of the electron
between two of its stationary states as a function of time. The EKF has been
applied to this problem to obtain real time estimates of the classical parameters
that are governed by a classical stochastic differential equation. Applications of
V.P.Belavkin’s theory of quantum filtering with non-demolition measurements
taken on the Hudson-Parthasarathy noisy Schrodinger equation are discussed.
These include problems like obtaining real time estimates of the cavity electro-
magnetic field, the cavity gravitational field etc when the bath surrounding the
cavity has a noisy electromagnetic field. This problem can be viewed as an exer-
cise in non-commutative probability theory. We also present some work dealing
with linearization of the Einstein-Maxwell field equations since this work fits
into the framework of linear partial differential equations driven by stochastic

vi
fields and hence is a problem in advanced stochastic field theory. We also discuss
some applications of advanced probability to general electromagnetics and ele-
mentary quantum mechanics like what is the statistics of the far field radiation
pattern produced by a random current source and how when this random elec-
tromagnetic field is incident upon an atom modeled by the Schrodinger or Dirac
equation, the stochastically averaged transition probability can be computed in
terms of the classical current correlations. Many other problems in statistical
signal processing like prediction and filtering of stationary time series, Kalman,
Extended Kalman and Unscented Kalman filters, the MUSIC and ESPRIT al-
gorithms for estimating the directions of random signal emitting sources, the
recursive least squares lattice algorithm for order and time recursive prediction
and filtering are discussed. We have also included some material on superstring
theory since it is closely connected with the theory of operators in Boson and
Fermion Fock spaces which is now an integral component of non-commutative
probability theory. Some aspects of supersymmetry have also been discussed
in this book with the hope that supersymmetric quantum systems can be used
to design quantum gates of very large size. Various aspects and applications
of large deviation theory have also been included in this book as it forms an
integral part of modern probability theory which is used to calculate the prob-
ability of rare events like the probability of a stochastic dynamical system with
weak noise exiting the stability zone. The computation of such probabilities
enables us to design controllers that will minimize this deviation probability.
The chapter on applied differential equations focuses on problems in robotics
and other engineering or physics problems wherein stochastic processes and field
inevitably enter into the description of the dynamical system. The chapter on
circuit theory and device physics has also been included since it tells us how to
obtain the governing equations for diodes and transistors from the band struc-
ture of semiconductors. When a circuit is built using such elements and thermal
noise is present in the resistances, then the noise gets distorted and even am-
plified by the nonlinearity of the device and the mathematical description of
such circuits can be calculated by perturbatively solving associated nonlinear
stochastic differential equations. Quantum scattering theory has also been in-
cluded since it tells us how quantum effects make the probability distribution of
scattered particles different from that obtained using classical scattering theory.
Thus, quantum scattering theory is an integral part of quantum probability.
Many discussions on the Boltzmann kinetic transport equation in a plasma are
included in this book since the Boltzmann distribution function at each time
t can be viewed as an evolving probability density function of a particle in
phase space. In fact, the Bolzmann equation is so fundamental that it can be
used to derive not only more precise forms of the fluid dynamical equations but
also describe the motion of conducting fluids in the presence of electromagnetic
fields. Any book on applications of advanced probability theory must therefore
necessarily include a discussion of the Boltzmann equation. It can be used to
derive the Fokker-Planck equation for diffusion processes after making approx-
imations and by including the nonlinear collision terms, it can also be used to
prove the H-theorem ie the second law of thermodynamics. The section on the

vii
Atiyah-Singer index theorem has been included because it forms an integral part
of calculating anomalies in quantum field theory which is in turn a branch of
non-commutative probability theory.

At this juncture, it must be mentioned that this book in the course of dis-
cussing applied probability and statistics, also surveys some of the research
work carried out by eminent scientists in the field of pure and applied prob-
ability, quantum probability, quantum scattering theory, group representation
theory and general relativity. In some cases, we also indicate the train of thought
processes by which these eminent scientists arrived at their fundamental con-
tributions. To start with, we review the axiomatic foundations of probability
theory due to A.N.Kolmogorov and how the Indian school of probabilists and
statisticians used this theory effectively to study a host of applied probability
and statistics problems like parameter estimation, convergence of a sequence
of probability distributions, martingale characterization of diffusions enabling
one to extend the scope of the Ito stochastic differential equations to situations
when the drift and diffusion coefficients do not satisfy Lipschitz conditions, gen-
eralization of the large deviation principle and apply it to problems involving
random environment, interacting particle systems etc. We then discuss the work
of R.L.Hudson along with K.R.Parthasarathy on developing a coherent theory
of quantum noise and apply it to study in a rigorous mathematical way the
Schrodinger equation with quantum noise. This gives us a better understand-
ing of open quantum systems, ie systems in which the system gets coupled to
a bath with the joint system-bath universe following a unitary evolution and
after carrying a out a partial trace of the environment, how one ends up with
the standard Gorini-Kossokowski-Sudarshan-Lindblad (GKSL) equation for the
system state alone–this is a non-unitary evolution. The name of George Su-
darshan stands out here as not only one of the creators of open quantum sys-
tem theory but also as the physicist involved in developing the non-orthogonal
resolution of the identity operator in Boson Fock space which enables one to
effectively solve the GKSL equation. We then discuss the work of K.B.Sinha
along with W.O.Amrein in quantum scattering theory especially in the devel-
opment of the time delay principle which computes the average time spent by
the scattered particle in a scattering state relative to the time spent by it in the
free state. We discuss the heavy contributions of the Indian school of general
relativitsts like the Nobel laureate Subramaniyam Chandraskehar on developing
perturbative tools for solving the Einstein-Maxwell equations in a fluid (post-
Newtonian hydrodynamics) and also the work of Abhay Ashtekar and Ashoke
Sen on canonical quantization of the gravitational field and superstring the-
ory. We discuss the the train of thought that led the famous Indian probabilist
S.R.S.Varadhan to develop along with Daniel W.Stroock the martingale charac-
terization of diffusions and along with M.D.Donsker to develop the variational
formulation of the large deviation principle which plays a fundamental role in
assessing the role of weak noise on a system to cause it to exit a stability zone
by computing the probability of this rare event. We then discuss the work of
the legendary Inidian mathematician Harish-Chandra on group representation

viii
theory especially his creation of the discrete series of representations for groups
having both non-compact and compact Cartan subgroups to finally obtain the
Plancherel formula for such semisimple Lie groups. We discuss the impact of
Harish-Chandra’s work on modern group theoretical image processing, for ex-
ample in estimating the element of the Lorentz group that transforms a given
image field into a moving and rotating image field. We then discuss the con-
tributions of the famous Indian probabilist Gopinath Kallianpur to developing
non-linear filtering theory in its modern form along with the work of some other
probabilists like Kushner and Striebel. Kallianpur’s theory of nonlinear filter-
ing is the most general one as we know today since it is applicable to situations
when the process and measurement noises are correlated. Kallianpur’s mar-
tingale approach to this problem has in fact directly led to the development
of the quantum filter of V.P.Belavkin as a non-commutative generalization of
the classical version. Nonlinear filtering theory has been applied in its linearized
approximate form-the Extended Kalman filter to problems in robotics and EEG-
MRI analysis of medical data. It is applicable in fact to all problems where the
system dynamics is described by a noisy differential or difference equation and
one desires to estimate both the state and parameters of this dynamical system
on a real time basis using partial noisy measurement data. We conclude this
work with brief discussions of some of the contributions of the Indian school
of robotics and quantum signal processing to image denoising, robot control
via teleoperation and to artificial intelligence/machine learning algorithms for
estimating the nature of brain diseases from slurred speech data. This review
also includes the work of K.R.Parthasarathy on the noiseless and noisy Shan-
non coding theorems in information theory especially to problems involving the
transmission of information in the form of stationary ergodic processes through
finite memory channels and the computation the Shannon capacity for such
problems. It also includes the pedagogical work of K.R.Parthasarathy in sim-
plfying the proof of Andreas Winter and A.S.Holevo on computing the capacity
of iid classical-quantum channels wherein classical alphabets are encoded into
quantum states and decoding positive operator valued measures are used in the
decoding process. We also include here the work of K.R.Parthasarathy on realiz-
ing via a quantum circuit, the recovery operators in the Knill-Laflamme theorem
for recovering the input quantum state after it has been transmitted through a
noisy quantum channel described in the form of Choi-Krauss-Stinespring opera-
tors. Some generalizations of the single qubit error detection algorithm of Peter
Shor based on group theory due to K.R.Parthasarathy are also discussed here.
This book also contains some of the recent work of the Indian school of robotics
involving modeling the motion of rigid 3-D links in a robot using Lie group-Lie
algebra theory and differential equations on such Lie groups. After setting up
these kinematic differential equation in the Lie algebra domain of SO(3)⊗n , we
include weak noise terms coming from the torque and develop a large deviation
principle for computing the approximate probability of exit of the robot from
the stability zone. We include feedback terms to this robot system and optimize
this feedback controller so that the probability of stability zone exit computed
using the large deviation rate function is as small as possible.

ix
Table of Contents

1. Classical and Quantum Probability 1–38

2. Quantum Scattering Theory 39–56

3. Linear Algebra and Operator Theory 57–98

4. Group Theory in Statistical Signal Processing and Control 99–134

5. Statistical Aspects of EEG Signal Analysis and


Image Processing in the Medical Sciences 135–168

6. Electromagnetism and Quantum Field Theory 169–208

7. Some Aspects of Superstring Theory 209–244

8. Superconductivity 245–248

9. Some Aspects of Large Deviation Theory 249–272

10 Conributions of Some Indian Scientists 273–296

 $SSOLHG'L൵HUHQWLDO(TXDWLRQV ±

12. Quantum Signal Processing 333–394

13. Aspects of Circuit Theory and Device Physics 395–398

14. Index on the Contents and Notes 399–414


Chapter 1

Classical and Quantum


Probability

[1] Classical probability spaces:


This is a triple (Ω, F, P ) where Ω is the sample space of all elementary out-
comes of the experiment, F is the σ-field of events. The elements of F are
subsets of Ω and the class F is closed under countable unions and comple-
mentation and therefore by De-Morgan’s rules, it is also closed under countble
intersections. P : F → [0, 1] is a countably additive map satisfying P (Ω) = 1
and therefore P (φ) = 0. The surprising thing is that non-empty events can
have zero probability, ie, such events can also occur. An example of this is
the uniform probability distribution over [0, 1] any event here that has non-zero
probability is an uncountable union of single point events and each single point
event has zero probability.

[2] Quantum probability spaces: This is a triple (H, P, ρ) where H is a


Hilbert space, P is a lattice of orthogonal projections in H and ρ is a state, ie
a positive definite operator in H having unit trace.
If (Ω, F, P ) is a classical probability space, then we can define H = L2 (Ω, F, μ),
P as consisting of orthogonal projections having the form of χF , F ∈ F, ie, mul-
tiplication by the indicator of F and ρ to be such that

< f, ρg >= f¯(ω)g(ω)dP (ω), f, g ∈ H
Ω

Here μ is a measure on (Ω, F) such that P is absolutely continuous w.r.t μ. In


order that ρ have unit trace, we require that if en , n = 1, 2, ... is an onb in H,

then
|en (ω)|2 dP (ω) = 1
n Ω


We note that
T r(ρ.χF ) = |en (ω)|2 dP (ω)
n F

1
2 Advanced Probability and Statistics: Applications to Physics and Engineering


In particular, if we choose the en s such that n |en (ω)|2 = 1 for P a.e.ω, then
we get
T r(ρ.χF ) = P (F ), F ∈ F
(H, F, P ) is a quantum probability space.

[3] Random variables in classical and quantum probability. In classical prob-


ability, we are given a probability space (Ω, F, P ) and a random variable is then
simply a measurable mapping X from the sample space to the real line or more
generally from the sample space to another measurable space (G, B). The prob-
ability distribution of the random variable is then P X −1 . This probability
distribution is then a probability measure on (G, B). If the range space of the
random variable is (Rn , B(Rn )), then by using the countable additivity prop-
erty of the probability measure and elementary properties of the inverse image
mapping of sets, it is easily seen that the probability distribution function of X
defined as

FX (x1 , ..., xn ) = P X −1 ((−∞, x1 ] × ... × (−∞, xn ])

is right continuous in each variable, non-decreasing in each variable, and and


converges as xn → ∞ to FY (x1 , ..., xn−1 ) and to zero as xn → −∞ where Y is
the r.v. obtained by deleting the last component of X. In quantum probability,
we are given a quantum probability space (H, P (H), ρ) and a random variable,
also called an observable is a self-adjoint operator X in H. If the spectral
representation of X is known, X can be regarded as a real valued random
variable in the state ρ with probability distribution T r(ρEX (x)).
[4] Expectation, variance, moments of r.v’s in classical and quantum proba-
bility.
If X is an observable with spectral measure EX (.) and Y is another observ-
able with spectral measure EY (.), then if X and Y commute, so do their spectral
measures and then the joint probability distribution of (X,Y) in any state ρ can
be defined as
F (dλ, dμ) = T r(ρ.EX (dλ)EY (dμ)
It is easily seen that F is a probability measure, ie, non-negative and whose
double integral is unity. If however X and Y do not commute then their spectral
measures will not commute and F as defined above is in general not even real
valued. This fact can be attributed to the Heisenberg uncertainty principle
which states that two non-commuting observables cannot be simultaneously
measured in any state. In fact, we can easily prove using the Cauchy-Schwarz
inequality that for any two observables X,Y and a state ρ, we have that

T r(ρ.X 2 ).T r(ρ.Y 2 ) ≥ |T r(ρ.X.Y )|2 ≥ (Im(T r(ρXY )))2

= (1/4|T r(ρ.[X, Y ]))|2


which means that if the observables do not commute then the product of their
variances in a given state will in general be positive meaning that if we try
Advanced Probability and Statistics: Applications to Physics and Engineering 3

to choose a state such that X can be localised then in the same state Y will
have infinite variance, so that the two can never be simultaneously measured.
Another way to state this is that if we define the joint characteristic function of
X and Y in the state ρ as
ψ(t, s) = T r(ρ.exp(tX + sY )), t, s ∈ R
then ψ will in general not be positive definite and hence its inverse bivariate
Fourier transform by Bochner’s theorem will not generally be a probability
distribution. If however, X, Y commute, then ψ will always be positive definite:

c̄k cm ψ(tk −tm , sk −sm )
k,m
 
= T r(ρ.( ck exp(tk X+sk Y )))( cm exp(tm X+sm Y ))∗ ≥ 0
k m
[5] Proofs of the main theorems in classical integration theory.
[a] Monotone convergence, [b] Fatou’s lemma, [c] Dominated convergence,
[d]Fubini’s theorem.
If (Ω, F, μ) is a σ-finite measurable space and fn is a sequence of increas-
ing measurable functions bounded below by an integrable function, then the
monotone convergence theorem states that
 
lim fn dμ = limfn dμ
If fn is any sequence of measurable functions bounded below by an integrable
function, then by using the increasing sequence infk≥n fk in the monotone con-
vergence theorem, we can establish Fatou’s lemma:
 
liminf fn dμ ≥ liminf fn dμ

If fn is a sequence of integrable functions bounded in magnitude by an inte-


grable function g and if limfn = f exists a.e.μ, then the dominated convergence
theorem states that  
f dμ = lim fn dμ

This is proved by applying Fatou’s lemma to the non-negative functions g − fn


and g + fn
[6] Tensor products of Hilbert spaces.
Let Hk , k = 1, 2, ..., n be Hilbert spaces with inner products < ., . >k , k =
1, 2, ..., n respectively. Consider the set S = H1 × ... × Hn and define a kernel

K :S×S →C

by
K((x1 , ..., xn ), (y1 , ..., yn )) = Πnk=1 < xk , yk >k
4 Advanced Probability and Statistics: Applications to Physics and Engineering

Then, by Schur’s theorem, K is positive definite and hence by an elementary


application of Kolmogorov’s consistency theorem for stochastic processes, there
exists a probability space (Ω, F, P ) and a Gaussian stochastic process {ξ(x) :
x ∈ S} in this probability space such that K is the correlation of this process,
ie,
< ξ(x), ξ(y) >= E(ξ(x)ξ(y)) = K(x, y), x, y ∈ S
Thus, by the GNS principle, ξ can be extended to an isometry. We define
x1 ⊗ ... ⊗ xn = ξ(x1 , ..., xn ), ()x1 , ..., xn ) ∈ S
and call it the tensor product of the vectors xk ∈ Hk , k = 1, 2, ..., n It is imme-
diately verified by using properties of the inner product that the tensor product
is linear in each of its arguments. Specifically, simple computation shows that
 ξ(x1 , ..., axi + byi , ..., xn ) − aξ(x1 , ..., xi , .., xn ) − b.ξ(x1 , ..., yi , ..., xn ) 2 = 0
for all complex numbers a, b and xk ∈ Hk , k = 1, 2, ..., n, yi ∈ Hi . The closure
of the span of ξ(x), x ∈ S is a closed subspace of the Hilbert space L2 (Ω, F, P )
and is called the tensor product of the Hilbert spaces Hk , k = 1, 2, ..., n and is
denoted by H = H1 ⊗ ... ⊗ Hn . If T1 , ..., Tn are bounded linear operators in
H1 , ..., Hn respectively, then we can define a linear operator T in H1 ⊗ ... ⊗ Hn
by
T (x1 ⊗ ... ⊗ xn ) = T1 x1 ⊗ ... ⊗ Tn xn
and extending the domain of T to the whole of H by linearity and continuity.
It is then easily verifiable that the map (T1 , ..., Tn ) → T1 ⊗ ... ⊗ Tn is multilinear
and satisfies
(S1 ⊗ ... ⊗ Sn ).(T1 ⊗ ... ⊗ Tn ) = (S1 T1 ) ⊗ ... ⊗ (Sn Tn )
K.R.Parthasarathy along with K.Schmidt introduced for the first time this con-
struction of the tensor product using positive definite kernels, the GNS principle
and Kolmogorov’s consistency theorem.

[7] Product probability measures in classical and quantum probability


Let (Ωk , Fk , Pk ), k = 1, 2, ..., n be probability spaces. Define a finitely addi-
tive set function P on the algebra/field of all finite disjoint union of rectangles
of the form E1 × ... × En with Ek ∈ Fk , k = 1, 2, ..., n so that
P (E1 × ... × En ) = P1 (E1 )...Pn (En )
We then show that P is also countably additive on this field and hence by the
Caratheodory extension theorem, P can be extended to a probability measure
on the σ-field
F = σ(F1 × ... × Fn )
P is called the product probability measure of P1 , ..., Pn and if we write Ω =
Ω1 × ... × Ωn , then (Ω, F, P ) is a probability space called the product of the
probability spaces (Ωk , Fk , Pk ), k = 1, 2, ..., n. We write
(Ω, F, P ) = ×nk=1 (Ωk , Fk , Pk )
Advanced Probability and Statistics: Applications to Physics and Engineering 5

Physically, this product probability space corresponds to an experiment in which


each of the outcomes are obtained by independent trials of the component ex-
periments. If X : Ω → R is a random variable on this product probabilty space,
then  
EP (X) = XdP = X(ω1 , ..., ωn )dP1 (ω1 )...dPn (ωn )

In particluar, if Xk is a random variable in (Ωk , Fk , Pk ) for each k = 1, 2, ..., n


and if we define
X(ω1 , ..., ωn ) = X1 (ω1 )...Xn (ωn )
then X is a random variable in (Ω, F, P ) whose expectation is given by

EP (X) = Πnk=1 Xk dPk = Πnk=1 E(Xk )

[8] The weak law of large numbers and the central limit theorem for sums of
independent random variables.
If X(n), n = 1, 2, ... is a sequence of independent r.vs with corresponding
means μn and corresponding finite variances σn2 and if

(μ1 + ... + μn )/n → μ, (σ12 + ... + σn2 )/n → σ 2

then the sequence


Sn /n = (X(1) + ... + X(n))/n
converges in the mean square sense and hence also in probability and hence also
in distribution to the constant r.v.μ. This is proved easily using the Chebyshev
inequality. Indeed, independence of the X(n) s implies that


n
V ar(Sn ) = σk2
k=1

and hence
2
P (|Sn /n − (μ1 + ... + μn )/n| > ) ≤ V ar(Sn /n)/ = (σ12 + ... + σn2 )/n2 2
→0

and the result follows on using

(μ1 + ... + μn )/n → μ

ie, we get
P (|Sn /n − μ| > ) → 0

[9] Sums of independent random variables and the strong law of large num-
bers.
6 Advanced Probability and Statistics: Applications to Physics and Engineering

[10] The weak and strong laws of large numbers and the Levy-Khintchine
theorem on representing the characteristic function of an infinitely divisible
probability distributions in its most general form and its subsequent generaliza-
tion to infinitely divisible distributions for Hilbert space random variables by
S.R.S.Varadhan.

[11] Weak convergence of probability measures and Prohorov’s tightness the-


orem.
[12] An introduction to Brownian motion, Poisson process and other stochas-
tic processes.
Brownian motion is a zero Gaussian stochastic process having almost sure
continuous sample paths B(t), t ≥ 0 and independent increments such that
V ar(B(t) − B(s)) = t − s, t ≥ s ≥ 0. Such a process can easily be constructed
using the so called ”tent functions” as was first done by Paul Levy. It can also
be constructed using the so-called Karhunen-Loeve eigenfunction expansion.
Noting that E(B(t)B(s)) = min(t, s) = K(t, s), we use the spectral theorem for
compact operators to construct an onb {φn } for L2 [0, 1] such that
 1
K(t, s)φn (s)ds = λn φn (t), t ∈ [0, 1]
0

and then prove that if Xn is an iid sequence of N (0, 1) r.v’,s then the sequence of
n
continuous processes Bn (t) = k=1 Xk φk (t), k = 1, 2..., n converges uniformly
almost surely over [0, 1] and hence the limit is a Gaussian process with almost
surely continuous sample paths. This limiting process has all the properties of
Brownian motion. Some of the fundamental properties of BM proved using the
Borel-Cantelli lemmas are (a)

P (limh→0 supt∈[0,1−h] |B(t + h) − B(t)|/ Ch.log(1/h)) ≤ 1) = 1

for any C > 2 and for any C < 2,



P (limh→0 supt∈[0,1−h] |B(t + h) − B(t)|/ C.h.log(1/h) > 1) = 1

This result is known as Levy’s modulus of continuity of Brownian motion. (b)


The law of the iterated logarithm:

P (limsupt→∞ B(t)/ 2tloglog(t) = 1) = 1,

P (liminft→∞ B(t)/ 2tloglog(t) = −1) = 1

[13] Kolmogorov’s consistency theorem for stochastic processes.


This is perhaps the most fundamental theorem in the whole of probability for
it tells us of the existence of a stochastic process given only its finite dimensional
marginal distributions. The proof of this theorem is based on the regularity of
probability measures on Rn , ie, Borel sets can be approximated by compact
Advanced Probability and Statistics: Applications to Physics and Engineering 7

sets to any given degree of accuracy with respect to any probability distribution
on Rn . The proof also uses a fundamental result in topology on compact sets,
namely, given a nested sequence of non-empty compact sets, the intersection
of all these sets is then non-empty. The consistency theorem states that given
a consistent sequence of probability distributions Fn on Rn , for n = 1, 2, ...,
there exists a probability space (Ω, F, P ) and an infinite sequence of real valued
random variables Xn , n = 1, 2, ... on this probability space such that

Fn = P o(X1 , ..., Xn )−1 , n = 1, 2, ...

The complete proof of this theorem is outlined in [15b].

[14a] Wiener’s construction of Brownian motion using sin functions. This


has already been discussed with the proof based on the KL spectral expansion.
[14b] Definition of the Ito stochastic integral for Brownian motion and con-
tinuous martingales.

[14c] Proof of the almost sure existence and uniqueness of solutions to


stochastic differential equations driven by Brownian motion. Proof is based
on Doob’s L2 -inequality for martingales. Assume that the drift and diffusion
coefficients are Lipshitz continuous:

|μ(t, x) − μ(t, y)| ≤ K|x − y|, |σ(t, x) − σ(t, y)| ≤ K|x − y|

Then,  t
xn+1 (t) − xn (t) = (μ(s, xn (s)) − μ(s, xn−1 (s)))ds
0
 t
+ (σ(s, xn (s)) − σ(s, xn−1 (s))dB(s)
0
Thus, writing
Δn+1 (t) = max0≤s≤t |xn+1 (s) − xn (s)|2
we get  t
E(Δn+1 (t)) ≤ 2K 2 t E(Δn (s))ds
0
 t
+8K 2 E(Δn (s))ds
0
 t  t
2 2
= K (2t + 8) E(Δn (s))ds ≤ (2T + 8)K E(Δn (s))ds, 0 ≤ t ≤ T
0 0
from which, we get by iteration that

E(Δn+1 (t)) ≤ Ctn /n!, 0 ≤ t ≤ T

where C depends on T . This gives us

E[max0≤t≤T |xn+r (t) − xn (t)|]


8 Advanced Probability and Statistics: Applications to Physics and Engineering


n+r−1
≤ E[max0≤t≤T |xj+1 (t) − xj (t)|]
j=n


n+r−1  
n+r−1 √
1/2
≤ (E(Δj (t))) ≤ (CT n )/ n!
j=n j=n

which converges to zero as n, r → ∞ because



(T n /n!)1/2 < ∞
n

for any finite positive T . This proves

[15a] Paul Levy’s construction of Brownian motion using the Haar basis.
Let
D(n) = {k/2n : 0 ≤ k ≤ 2n }
I(n) = D(n) − D(n − 1) = {k/2n : 0 ≤ k ≤ 2n , kodd}
Let {ξ(n, k) : k ∈ I(n), n ≥ 0} be iid N (0, 1) random variables. Define the Haar
wavelet functions Hn (t), t ∈ [0, 1] by Hn,k (t) = 2(n−1)/2 , (k − 1)/2n < t < k/2n
and Hn (t) = −2(n−1)/2 , k/2n < t < (k + 1)/2n }. Clearly {Hn,k : n ≥ 0 : k ∈
I(n)} is an onb for L2 [0, 1]. Define the Schauder functions
 t
Sn,k (t) = Hn,k (s)ds
0

Then,
|Sn,k (t)| ≤ 2−(n+1)/2
We evaluate 
Hn,k (t)Hn,k (s) = δ(t − s)
n,k

and hence on integration, we get



Sn,k (t)Sn,l (s) = min(t, s)
n,k

Define the processes



n 
Bn (t) = ξ(m, k)Sm,k (t), n ≥ 0
m=0 k∈I(m)

Then clearly Bn (t) is a continuous stochastic process on [0, 1]. Further,

P (maxk∈I(n) |ξ(n, k)| > n} ≤ 2n P (|ξ(1, 1)| > n)


  ∞
P (|ξ(1, 1)| > n) = C. exp(−x2 /2)dx ≤ 2C (x/n).exp(−x2 /2)dx
|x|>n n
Advanced Probability and Statistics: Applications to Physics and Engineering 9

≤ (2C/n)exp(−n2 /2)
and since 
(2n /n).exp(−n2 /2) < ∞
n≥1

it follows that if we define the r.v’s

b(n) = max(ξ(n, k) : k ∈ I(n))

then, by the Borel-Cantelli Lemma,

P (b(n) > ni.o) = 0

Hence, for a.e. ω, there exists an integer N (ω) such that n > N (ω) implies
b(n) ≤ n. Then  
|ξ(n, k)|Sn,k (t) ≤
n>N (ω) k∈I(n)

n.2−(n+1)/2 < ∞
n≥1

Note that 
Sn,k (t)
k∈I(n)

has a minimum value of zero and a maximum value of 2−(n+1)/2 over the interval
[0, 1]. Its graph consists of nonoverlapping triangles of height 2−(n+1)/2 and base
widths 2−(n−1) .
The above argument implies that for a.e.ω, and for all n > N (ω)

supt∈[0,1] |Bn+r (t, ω) − Bn (t, ω)| ≤ n.2−(n+1)/2
m>n

which converges to zero as n, r → ∞. This means that for a.e.ω, the processes
Bn (., ω), n ≥ 1 converge uniformly over the interval [0, 1] and since each of
these processes is continuous, the limiting process B(., ω) is also continuous
with autocorrelation min(t, s) and hence we have explicitly constructed a mean
zero Gaussian process over the time interval [0, 1] that is a.e. continuous and
hs autcorrelation min(t, s). In other words, the limiting process is Brownian
motion over the time interval [0, 1].

[15b] Proof of the Kolmogorov existence theorem for stochastic processes.


Let Fn (x1 , ..., xn , t1 , .., tn ) be a consistent family of probability distributions
on Rn respectively for n = 1, 2, ... with t1 , ..., tn ∈ R+ . For any B ∈ B(Rn ), we
define 
Pt1 ...tn (B) = dFn (x1 , ..., xn , t1 , ..., tn)
B
Then, for each set. of distinct t1 , .., tn ∈ R+ , Pt1 ...tn is a probability measure on
(Rn , B(Rn )) and these probability measures form a consistent family. Our aim
10 Advanced Probability and Statistics: Applications to Physics and Engineering

is to show the existence of a probability measure P on (R[0,∞) , B(R[0,∞) ) such


that

P ({ω ∈ R[0,∞) : (ω(t1 ), ...ω(tn )) ∈ B) = Pt1 ,...,tn (B), B ∈ B(Rn )

We first define a finitely additive set function P on the field/algebra C generated


by the finite dimensional cylinder sets, ie, sets of the form

D = {ω : (ω(t1 ), ..., ω(tn )) ∈ B}

by
P (D) = Pt1 ...tn (B)
Then by the Caratheodory theorem, it is sufficient to prove that P is countably
additive on C. To prove this it is in turn sufficient to show that if Dn ∈ C and
Dn ↓ φ, then P (Dn ) ↓ 0. Suppose that P (Dn ) ↓ δ > 0. Then, we must arrive
at a contradiction. Since Dn+1 ⊂ Dn , it follows that if we write

Dn = {ω : (ω(t1 ), ...ω(tn )) ∈ Bn }

then Dn+1 is of the form

Dn+1 = {ω : (ω(t1 ), ..., ω(tn ), ω(tn+1 ), ..ω(tm )) ∈ Bm }

where
Bm ⊂ Bn × Rm−n
Thus, we can pad sets Dn,1 , ..., Dn,m−n−1 in between the sets Dn and Dn+1 so
that

Dn,k = {ω : (ω(t1 ), .., ω(tm ), ω(tm+1 ), ...ω(tm+k )) ∈ Bm ×Rk }, k = 1, 2, ..., m−n−1

and hence assume without loss of generality that Dn ↓ φ and

Dn = {ω : (ω(t1 ), ...ω(tn )) ∈ Bn }, n = 1, 2, ...

such that
Bn ∈ Rn , Bn+1 ⊂ Bn × R
Now by the regularity of probability measures on Rn , we can choose for each n
a non-empty compact set Kn ⊂ Bn such that

Pt1 ...tn (Bn − Kn ) < δ/2n , n = 1, 2, ...

Now define

K̃n = (K1 × Rn−1 ) ∩ (K2 × Rn−2 ) × ... × (Kn−1 × R) ∩ Kn , n ≥ 1

Then, K̃n is also a compact subset of Rn and further, defining

{ω : (ω(t1 ), ..., ω(tn )) ∈ K̃n } = En ⊂ Dn


Advanced Probability and Statistics: Applications to Physics and Engineering 11

we find that

n 
n
En = {ω : (ω(t1 ), ...ω(tm )) ∈ Km } = Fm
m=1 m=1

where
Fm = {ω : (ω(t1 ), ...ω(tm )) ∈ Km }
Then, En ↓ and


n 
n
P (Dn − En ) = P ( (Dn − Fm )) ≤ P ( (Dm − Fm ))
m=1 m=1


n 
n
≤ P (Dm − Fm ) = Pt1 ...tm (Bm − Km )
m=1 m=1


n
≤ δ/2m < δ
m=1

from which we deduce that



n
P (En ) ≥ P (Dn ) − P (Dn − En ) ≥ δ − δ/2m > −
m=1

Thus En is a non-increasing sequence of non-empty sets. In particular, it


follows that K̃n is non-empty for each n. Thus, for each n, we can choose
(x(n, 1), ..., x(n, n)) ∈ K̃n . Since K̃n ⊂ K1 × Rn−1 , it follows that x(n, 1) ∈
K1 . Since K1 is compact, it has a convergent subsequence {x(n1 , 1)}. Since
(x(n1 , 1), x(n1 , 2)) ∈ K̃2 ⊂ K2 and K2 is compact, it has a convergent subse-
quence (x(n2 , 1), x(n2 , 2)). continuing in this way, we get a convergent sequence
(x(nk , 1), ..., x(nk , k)) ∈ Kk for each k = 1, 2, ... such that (x(nk , 1), ..., x(nk , k −
1)) ∈ Kk−1 . Note that {nk } is a subsequence of {nk−1 } for each k. Let
limnk x(nk , k) = x(k), k = 1, 2, .... Then it follows easily that (x(1), ..., x(k)) ∈
Kk for each k and hence

Fm = {ω : (ω(1), ..., ω(m)) ∈ Km }

contains
 the point {ω : (ω(1), ..., ω(m)) = (x(1), ..., x(m))} for each m. Thus,
m≥1 m contains the point (x(1), x(2), ...) and in particular,
F  this set is non-
empty. But, Fm ⊂ Dm by our construction and hence m≥1 Dm is non-empty
which is a contradiction. This completes the proof of Kolmogorov’s existence
theorem.

[15c] The Kolomgorov-Centsov theorem for the existence of a continuous


modification of a stochastic process.
Remark: This theorem gives us an alternate way to construct Brownian
motion or more precisely to prove the existence of the Brownian motion process,
12 Advanced Probability and Statistics: Applications to Physics and Engineering

ie, a continuous Gaussian stochastic process with zero mean and autocorrelation
min(t, s). Let X(t) be a stochastic process such that

E[|X(t) − X(s)|a ] ≤ C|t − s|1+b

for all t, s ∈ [0, 1] with C, a, b positive constants. Then X(.) has a continuous
modification, ie, there exists a continuous stochastic process Y (t) defined on the
same probability space such that for any distinct t1 , ..., tn ∈ [0, 1], n = 1, 2, ...,
we have
P (X(tj ) = Y (tj ), j = 1, 2, ..., n) = 0
In particular, all the finite dimensional distributions of X(.) coincide with the
corresponding distributions of Y . The idea behind the use of this theorem
to construct Brownian motion is to first construct using infinite sequences of
iid Gaussian random variables, a zero mean Gaussian process X(t) having the
same autocorrelation function as that of Brownian motion, then prove that X(.)
satisfies the conditions of this theorem and hence use the theorem to deduce the
existence of a continuous modification of the X(.) process, ie, we get a process
Y with continuous trajectories having the same finite dimensional distributions
as that of Brownian motion and hence conclude that Y is a Brownian motion
process.
Proof of the theorem: Let

D(n) = {k/2n : 0 ≤ k ≤ 2n }

and then by the conditions of the theorem, we have

E[|X((k + 1)/2n ) − X(k/2n )|a ] ≤ C.(1/2n )1+b

Thus, by the union bound and Chebyshev’s inequality, for any γ > 0

P (max0≤k≤2n −1 |X((k + 1)/2n ) − X(k/2n )| > 1/2nγ ) ≤

2
n
−1
P (|X((k + 1)/2n ) − X(k/2n )| > 2−nγ ) ≤
k=0

2n 2naγ .C.2−n(1+b) = C.2−n(b−aγ)


Assume that
0 < γ < b/a
Then, by the above inequality since

2−n(b−aγ) < ∞
n≥0

it follows that

P (max0≤k≤2n −1 |X((k + 1)/2n ) − X(k/2n )| > 1/2nγ , i.o) = 0


Advanced Probability and Statistics: Applications to Physics and Engineering 13

[16] Annihilation, creation and conservation fields in quantum probability


theory.
Given a Hilbert space H and a tensor product, we can can construct the
Boson Fock space Γs (H) consisting of the direct sum of all symmetric tensor
products of H and a Fermion Fock space Γa (H) consising of the direct sum of all
antisymmetric tensor products of H. We then construct an exponential vector
e(u) in Γs (H) for each u ∈ H. The exponential vectors span a dense linear
manifold of the Boson Fock space and we can then construct an annihilation
operator a(u) insatisfying

a(u)e(v) =< u, v > e(v), u, v ∈ H

We can then show that


[a(u), a(v)∗ ] =< u, v >
a(u)∗ is a creation operator. Given a linear operator H in H, we can also
construct a conservation operator λ(H) in the Boson Fock space such that

< e(u)|λ(H)|e(v) >=< u|H|v >< e(u)|e(v) >

Λ(H) can be constructed as a quadratic combination of the creation and an-


nihilation operators when H is a Hermitian operator. From the annihilation
and creation operator fields, we can by means of a spectral measure E(.) in
H construct annihilation and creation ”processes” a(E[0, t]u) and a(E[0, t]u)∗
and a conservation ”processes” λ(E[0, t]H) provided that H commutes with the
spectral measure and then using these ”quantum stochastic processes”, build
a non-commutative theory of stochastic processes such that in different states,
these processes exhibit different kinds of statistics. Specifically, we can lin-
early combine the creation and annihilation processes such that the resulting
process has all properties of a classical commutative Brownian motion in an
exponential/coherent state. Likewise, we can show that the conservation pro-
cess satisfies all properties of the classical Poisson process in a coherent state.
Thus, the fundamental stochastic processes in classical probability can be real-
ized using operator theory in Boson Fock space as special cases. The position
and momentum operators for a quantum Harmonic oscillator are expressible as
linear combinations of creation and annihilation operators and extending this
idea, noisy position and momentum processes like Brownian motion and Pois-
son processes are expressible in terms of creation, annihilation and conservation
processes in quantum probability.

[17] Annihilation, creation and conservation processes in quantum proba-


bility. This is a study project. Learn about how one defines the creation,
annihilation and conservation operators fields in a Boson Fock space both using
the Weyl operator and by using an infinite sequence of one dimensional quantum
harmonic oscillators. In the arguments of these operator fields make the vectors
14 Advanced Probability and Statistics: Applications to Physics and Engineering

and matrices equal to vectors and matrices multiplied by the time domain spec-
tral projection and then derive the quantum Ito formula using the commutation
relations between the creation and annihilation operator fields. Explain using
basic physical principles why this derivation shows that the Ito formula can be
alternatively viewed as a manifestation of the Heisenberg uncertainty principle
between position and momentum.

[18] Ito’s formula for Brownian motion and Poisson processes and their quan-
tum generalizations. Take a Brownian motion process B(t) and verify the Levy
oscillation property


N −1
limN →∞ (B((n + 1)t/N ) − B(nt/N ))2 = t
n=0

in the mean square sense by computing the mean and variance of the lhs. Ex-
plain intuitively how this relationship can be cast in the form

(dB(t))2 = dt

Take a Poisson process N (t) and prove that

E((N (t + h) − N (t))2 − (N (t + h) − N (t)))2 = 0

Explain intuitively how this relationship can be cast in the form

(dN (t))2 = dN (t)

Hint: Show that if h = T /N , then


M −1 
M −1
limM →∞ [ (N ((k + 1)h) − N (kh))2 − (N ((k + 1)h) − N (kh))]2 = 0
k=0 k=0

To prove this, make use of the independent increment property of the Poisson
process and calculate E[N (h)2 ] and E(N (h)4 ) using

P (N (h) = n) = exp(−λh)(λh)n /n!, n = 0, 1, 2, ...

By taking limits prove in the mean square sense that if f (t) is a continuous
function, then
 T  T
E( f (t)dB(t))2 = f 2 (t)dt
0 0
where the rhs is interpreted as the limit of


N −1
f (nt/N )(B((n + 1)t/N ) − B(nt/N ))
n=0

Show that
df (B(t)) = f  (B(t))dB(t) + (1/2)f  (B(t))dt
Advanced Probability and Statistics: Applications to Physics and Engineering 15

using mean square logic, ie,



N −1  T
f (B(t))−f (0) = limN →∞ f  (B(nt/N ))(B((n+1)t/N )−B(nt/N ))+(1/2) f  (B(t))dt
n=0 0

Likewise, show that


df (N (t)) = (f (N (t) + 1) − f (N (t))dN (t)
by using the fact that dN (t) = 0, 1.
[19] Classical and quantum scattering theory with comparisons. Computing
the wave operators in quantum scattering. Computing the scattering matrix in
terms of the potential for Schrodinger Hamiltonians.
Study project: When the scattering centre generates a random potential
V (Q) with known mean and autocorrelation EV (Q) and E(V (Q) ⊗ V (Q )),
then what would be the average value of the scattering matrix and what would
be its mean square fluctuation. In the classical case, if the scattering centre
generates a random radial potential V (r), then what would be the mean square
value of the scattering cross section for a given angle and what would be the
statistical correlation between the scattering cross sections at different angles in
terms of EV (r) and E(V (r)V (r ))
[20] Scattering matrix for quantum fields. Examples taken from electron-
positron-photon interactions. Approximate computation of the scattering ma-
trix using the Dyson series. Evaluating the various terms in the Dyson series
using Feynman diagrams.
[21] The Borel-Cantelli lemmas
[1] Let En , n ≥ 1 be a family of events such that

P (En ) < ∞
n

Then
P (En , i.o) = 0
Proof: 
{En , i.o} = Ek
n k≥n

Thus,  
P (En , i.o) = limn→∞ P ( Ek ) ≤ P (Ek ) → 0
k≥n k≥n

[2] Let En , n ≥ 1 be a family of mutually independent events such that



P (En ) = ∞
n
16 Advanced Probability and Statistics: Applications to Physics and Engineering

Then
P (En , i.o) = 1
In fact, 
1 − P (En , i.o) = P ( Ekc )
n k≥n

= limn Πk≥n P (Ekc ) = limn Πk≥n (1 − P (Ek )) = 0


since
Πk≥n (1 − P (Ek )) ≤ Πk≥n exp(−P (Ek ))

= exp(− P (Ek )) = 0
k≥n

[22]Some remarks on classical and quantum entropy


[1] Suppose f (x) is a probability density on Rn such that its entropy H(f ) =
− f (x).log(f (x))dx is a maximum subject to K constraints:

gk (x)f (x)dx = μk , k = 1, 2, ..., K

Then show that f (x) is given by


K
f (x) = C.exp( c(k)gk (x))
k=1

where the c(k) s are given by the equation


  
exp( c(k)gk (x))gm (x)dx = μm /C, m = 1, 2, ..., K
k k

and C is a normalizing constant, ie,


 
C −1 = exp( c(k)gk (x))dx
k

[2] Suppose ρ is a mixed quantum state such that its Von-Neumann entropy
H(ρ) = −T r(ρ.log(ρ)) is a maximum subject to constraints

T r(ρHk ) = μk , k = 1, 2, ..., K

Where Hk , k = 1, 2, ..., K are Hermitian matrices. Then, show that ρ is given


by

K
ρ = C.exp(− β(k)Hk )
k=1
Advanced Probability and Statistics: Applications to Physics and Engineering 17

where the β(k) s are determined by



C −1 μm = T r(exp(− β(k)Hk )Hm ), m = 1, 2, ..., K
k

hint: Writing ρ = exp(Z), we have

δρ = ρ.((1 − exp(−ad(Z))/ad(Z))(δZ)

So
δ(ρ.log(ρ)) = δ(Z.exp(Z))
= δZ.exp(Z) + Z.exp(Z)((1 − exp(−ad(Z))/ad(Z))(δZ)
We may assume that Z is a Hermitian matrix. Then,

δ(T r(ρ.log(ρ))) =

T r(δZ.(ρ + g(ad(Z))∗ (Z.ρ)))


where
g(x) = (1 − exp(−x))/x
Simplifying, the above expression, we get

δ(T r(ρ.log(ρ))) = T r(δZ.ρ(1 + Z))

[3] Let μ and ν be two probability measures on the same measurable space.
Define  
H = supf ( f dν − log( exp(f )dμ))

Show that the supremum is attained when

f = log(dν/dμ) + C

provided that ν << μ and hence deduce that



H = H(ν|μ) = dν.log(dν/dμ)

[4] Let ρ, σ be two quantum states in a given Hilbert space and let X vary
over all observables (Hermitian matrices) in the same Hilbert space. Compute

H = supX (T r(ρ.X) − log(T r(σ.exp(X))))

hint: Consider the spectral decomposition of X:



X= |ek > p(k) < ek |
18 Advanced Probability and Statistics: Applications to Physics and Engineering

Then,
T r(ρ.X) − log(T r(σ.exp(X))) =
 
p(k) < ek |ρ|ek > −log( exp(p(k)) < ek |σ|ek >)
k k

[23] Problems on Brownian motion


[1] Let B(t) be Brownian motion and T the first time at which it hits zero.
Then for 0 < x < y, compute

pdy = Px (B(t) ∈ dy, T > t)

hint: Let τ be the first time at which the process hits either zero or y. Then τ
is a finite stop-time and hence by Doob’s optional stopping theorem,

x = Ex B(τ ) = y.P (T > t)

and hence
P (T > t) = x/y
Now let s(t) = min(B(u) : u ≤ t). Then

pdy = Px (B(t) ∈ dy, s(t) > 0)

We compute instead using the reflection principle,

Px (B(t) ∈ dy, s(t) ≤ 0) = Px (B(t) ∈ [−y, −y + dy])

= (2πt)−1/2 exp(−(x + y)2 /2t)dy


and hence

Px (B(t) ∈ dy, T > t) = (2πt)−1/2 (exp(−(y −x)2 /2t)−exp(−(y +x)2 /2t)), y > 0

Problem: By integrating over y > 0, compute P (T > t).


[2] Repeat Problem [1] for d-dimensional Brownian motion where d ≥ 2 and
B(t) is replaced by |B(t)|.
hint: |B(t)|2 − dt is a Martingale and hence for 0 < a < x < b, if τ denotes
the first time at which |B(t)| hits b starting from x, we have by Doob’s optional
stopping theorem,

|x|2 = Ex (|B(τ )|2 − dτ ) = |b|2 Px (|B(τ )| = b) + |a|2 Px (|B(τ )| = b) − dEx [τ ]

Let X(t) be a d− dimensional diffusion process with drift μ(x) and diffusion
coefficient σ(x). Suppose f (x) satisfies

Lf (x) = 0, L = μ(x)T ∇x (.) + (1/2)T r(∇x ∇Tx (.))


Advanced Probability and Statistics: Applications to Physics and Engineering 19

Then, f (X(t)) is a Martingale and hence if τ denotes the first time at which
f (X(t)) hits either a or b starting from x ∈ (a, b), then by Doob’s optional
stopping theorem,

f (x) = Ex f (X(τ )) = f (a).P (X(τ ) = a) + f (b).P (X(τ ) = b),

P (X(τ ) = a) + P (X(τ ) = b) = 1
Thus, the probability that X(t) hits f −1 ({a}) before it hits f −1 ({b}) staring at
x is given by
P (X(τ ) = a) = (f (x) − f (b))f (a) − f (b))
and the probability that X(t) hits f −1 ({b}) before it hits f −1 ({a}) is given by

P (X(τ ) = b) = (f (a) − f (x))/(f (a) − f (b))

[24] Levy’s modulus for Brownian motion


Let c > 0 and put

An,k = {|B((k + 1)/2n ) − B(k/2n )| > c.2−n .nlog(2)}

Then since for a standard normal random variable Z, we have



P (|Z| > a) ≤ 2(a 2π)−1 .exp(−a2 /2), a > 0

we get taking
Z = 2n/2 (B((k + 1)/2n ) − B(k/2n )),
√ √
a = c.log(2). n
that
P (An,k ) ≤ C.n−1/2 .exp(−cn.log(2)/2) = C.n−1/2 .2−nc/2
Thus,
2

n

n
P( An,k ) ≤ P (An,k ) ≤ Cn−1/2 .2n(1−c/2)
k=1 k=1

So for c > 2,
2

n

limn→∞ P ( An,k ) = 0
k=1

Taking t = k/2n and h = 1/2n , we have that


 
c.h.log(1/h) = c.2−n .n.log(2)

and we deduce from the above equation and the continuity of the Brownian
paths that

P (limsuph→0 sup0<t<1−h |B(t + h) − B(t)|/ c.h.log(1/h) > 1) = 0
20 Advanced Probability and Statistics: Applications to Physics and Engineering

for all c > 2. Note that this is equivalent to the statement that

limδ→0 P (sup0<h<δ sup0<t<1−h |B(t + h) − B(t)|/ c.h.log(1/h) > 1) = 0∀c > 2

To go the other way round, we observe that


2

n

Acn,k ) ≤ Π2k=1 (1 − C1 .n−1 .exp(−cn.log(2)/2))


n
P(
k=1

= (1−C1 .n−1 .exp(−cn.log(2)/2))exp(n.log(2))

≤ exp(−C1 .n−1 .exp(n.log(2)).exp(−c.n.log(2)/2))

= exp(−C1 .n−1 .exp(n.log(2)(1 − c/2))


which is obviously summable for c < 2. Thus, for c < 2, we have that with
probability one, there is a finite positive integer N (ω) such that for all n > N (ω),
2n
we have that k=1 An,k occurs. This proves that

P (limsuph→0 sup0<t<1−h |B(t + h) − B(t)|/ c.h.log(1/h) > 1) = 1∀c < 2

Remark: Let Z be a standard normal r.v. Then, we have for a > 0


 ∞
P (Z > a) = (2π)−1/2 exp(−x2 /2)dx
a
 ∞  ∞
2
= C0 x.exp(−x /2)dx + C0 x2 .exp(−x2 /2)dx
a a
 ∞  ∞
≥ C0 x.exp(−x2 /2)dx + C0 a x.exp(−x2 /2)dx
a a

= C0 exp(−a2 /2) + C0 a.exp(−a2 /2) ≥ C0 .exp(−a2 /2)


where
C0 = (2π)−1/2
[25]The law of the iterated logarithm for Brownian motion
Define 
ψ(t) = 2.t.loglog(t), t > e
Let q > 1. Then 
ψ(q n ) = 2q n .(log(n) + loglogq),
We have
P (B(q n ) − B(q n−1 ) > ψ(q n − q n−1 ))
≥ C.exp(−ψ(q n − q n−1 )2 /2(q n − q n−1 ))
= C.exp(−loglog(q n − q n−1 )) = C.exp(−log((n − 1)logq + log(q − 1)))
≥ C1 (n − 1)−1
Advanced Probability and Statistics: Applications to Physics and Engineering 21

for all sufficiently large n. This is not summable. Hence by the Borel-Cantelli
Lemma we have that with probability one the events {B(q n ) − B(q n−1 ) >
ψ(q n − q n−1 )}, n = 1, 2, ... occur infinitely often. On the other hand, for any
a > 1,

P (B(q n )−B(q n−1 ) > aψ(q n −q n−1 )) ≤ C2 .exp(−a2 .log((n−1)logq+log(q−1)))


2
≤ C3 .(n − 1)−a
for sufficiently large n. This is summable. Hence with probability one, there
exists an integer N (ω) such that for all n > N (ω), all the events {B(q n ) −
B(q n−1 ) ≤ aψ(q n − q n−1 )} occur.
Now consider for a > 1,

P (max0<t<qn B(t) > aψ(q n )) = 2.P (B(q n ) > aψ(q n ))

≤ C1 q n/2 ψ(q n )−1 .exp(−a2 ψ(q n )2 /2q n )


2
≤ C2 (log(n))−1 .exp(−a2 .logn) = C2 /na .log(n)
which is summable. Thus with probability one, there is a finite integer N (ω),
such that for all n > N (ω), the event {max0<t<qn B(t) ≤ aψ(q n )} occurs. In
particular, {maxqn−1 <t<qn B(t) ≤ a.ψ(q n )} holds for all but finitely many n
with probability one. It is easily seen from this that limsupt→∞ B(t)/ψ(t) ≤ a
with probability one and since this is true for all a > 1, it follows that with
probability one, limsupt→∞ B(t)/ψ(t) ≤ 1.

[26](For Rohit Singh). Estimating the image intensity field when the noise is
Poisson plus Gaussian with the mean of the Poisson field being the true intensity
field.
The image field has the model

u(x, y) = N (x, y) + W (x, y)

where N (x, y) is Poisson with unknown mean u0 (x, y) and W (x, y) is N (0, σ 2 ).
Further we assume that N (x, y), W (x, y), x, y = 1, 2, ..., M are all independent
r.v’s. {u0 (x, y)} is the denoised image field and is to be estimated from mea-
surements of {u(x, y)}.
Remark: We write

u(x, y) = u0 (x, y) + (N (x, y) − u0 (x, y)) + W (x, y)

and interpret u0 (x, y) as the signal/denoised image field and N (x, y)−u0 (x, y)+
W (x, y) as the noise. The pdf of the noisy image field is

p(u|u0 ) = ΠM
x,y=1 φ((u(x, y) − n)/σ).exp(−u0 (x, y))u0 (x, y)n /n!
n≥0
22 Advanced Probability and Statistics: Applications to Physics and Engineering

and hence the log-likelihood function to be maximized after taking into account
a regularization term that minimizes the error energy in the image field gradient,
ie, reduces prominent edges is given by
L(u|u0 ) = log(p(u|u0 ))−E(u0 )

M 
= log( φ((u(x, y)−n)/σ).exp(−u0 (x, y))u0 (x, y)n /n!)
x,y=1 n≥0


M
−c. |∇u0 (x, y)|
x,y=1

where

|∇u0 (x, y)|2 = (u0 (x + 1, y) − u0 (x, y))2 + (u0 (x, y + 1) − u0 (x, y))2

Setting the gradient of this w.r.t u0 (x, y) to zero gives us the optimal equation

[ φ((u(x, y) − n)/σ).exp(−u0 (x, y))u0 (x, y)n /n!]−1
n

×[ φ((u(x, y) − n)/σ)exp(−u0 (x, y))(u0 (x, y)n−1 /(n − 1)! − u0 (x, y)n /n!)]
n

−cdiv(∇u0 (x, y)/|∇u0 (x, y)|) = 0


where
∇u0 (x, y)[u0 (x + 1, y) − u0 (x, y), u0 (x, y + 1) − u0 (x, y)]T
and
div([f1 (x, y), f2 (x, y)]T ) = f1 (x + 1, y) − f1 (x, y) + f2 (x, y + 1) − f2 (x, y)

The solution to this problem cannot be achieved in closed form. However, we


can use a non-linear diffusion like equation to converge to the optimum u0 . That
algorithm is based on the differential equation

u0 (t+1, x, y)

= u0 (t, x, y)+μ.[[ φ((u(x, y)−n)/σ).exp(−u0 (t, x, y))u0 (t, x, y)n /n!]−1
n

×[ φ((u(x, y)−n)/σ)exp(−u0 (t, x, y))(u0 (t, x, y)n−1 /(n−1)!−u0 (t, x, y)n /n!)]
n
−cdiv(∇u0 (t, x, y)/|∇u0 (t, x, y)|)]
Note that √
φ(x) = ( 2π)−1 .exp(−x2 /2)
Simulating this algorithm: First we explain how to simulate a Poisson ran-
dom variable with given mean λ. We use the fact that a binomial random vari-
able with parameters n, p = λ/n converges in distribution to a Poisson random
variable with mean λ. Further, a binomial random variable with parameters
Advanced Probability and Statistics: Applications to Physics and Engineering 23

n, p can be expressed as the sum of n independent Bernoulli random variables,


each having success parameter p. Thus, we choose a large n, say n = 100 and
λ ∈ (0, 1) so that p = λ/n and write a MATLAB program as: sum = 0 for
k = 1 : n, U = rand; if U < p, X = 1 else X = 0; end sum = sum + X; end;
P = sum;. Then, P will approximately be Poisson with mean λ.

Now define an M × M image field u0 (x, y): for x = 1 : M, f ory = 1 : M


u0 (x, y) = 10 ∗ randn(x, y); end; end;. For each x, y = 1, 2, ..., M , simulate
u(x, y) as a Poisson r.v. with mean u0 (x, y) followed by addition with W GN :
f orx = 1 : M, f ory = 1 : M p = u0 (x, y)/n; sum = 0; for k = 1 : n, U = rand;
if U < p, X = 1 else X = 0; end; sum = sum + X; end; P = sum; u(x, y) =
P + sigma ∗ randn; end; end;. Take sigma = 0.1.
Now apply the image restoration algorithm: Encode the smoothened image
field u0 (t, x, y) as a M 2 × K matrix U0 with U0 (M (x − 1) + y, t) = u0 (t, x, y)
where x, y = 1, 2, ..., M, t = 1, 2, ..., K. The iteration now reads:
for t=1:K
for x = 1 : M for y = 1 : M
u0 (M (x−1)+y, t+1))

= u0 (M (x−1)+y, t)+μ.[[ φ((u(x, y)−n)/σ).exp(−u(M (x−1)+y, t))u0 (M (x−1)+y)n /n!]−1
n

×[ φ((u(x, y)−n)/σ)exp(−u0 (M (x−1)+y, t))(u0 (M (x−1)+y, t)n−1 /(n−1)!
n
−u0 (M (x−1)+y, t)n /n!)]
−c.div(∇u0 (M (x − 1) + y)/|∇u0 (M (x − 1) + y, t)|)]
While writing the program, we have to evaluate two sums:

S1 = φ((u(x, y) − n)/σ).exp(−u0 (M (x − 1) + y, t))u0 (M (x − 1) + y)n /n!
n
and

S2 = φ((u(x, y)−n)/σ)exp(−u0 (M (x−1)+y, t))(u0 (M (x−1)+y, t)n−1 /(n−1)!
n
−u0 (M (x−1)+y, t)n /n!)
We approximate these infinite series with sums upto a large number say N
terms. The program for evaluating S1 and S2 is as follows: These programs
are to be written inside the for loops
√ for t, x, y: sum1 = 0; sum2 = 0; for
n = 1 : N sum1 = sum1 + (sigma ∗ 2π)−1 ∗ exp(−(u(x, y) − n)2 /2 ∗ sigma2 ) ∗
exp(−(u0 (M (x − 1) + y, t))) ∗ u0 (M (x − 1) + y)n /n!; sum2 = sum2 + (sigma ∗

2π)−1 ∗exp(−(u(x, y)−n)2 /2∗sigma2 )∗exp(−(u0 (M (x−1)+y, t)))∗(u0 (M (x−
1) + y)n−1 /(n − 1)! − u0 (M (x − 1) + y)n /n!); end; S1 = sum1; S2 = sum2;

Application of large deviation theory: Suppose, the denoised image field


u0 (x, y) = u0 is a constant, ie, it does not vary with x, y. Then, u(x, y), x, y =
1, 2, ..., M are iid random variables with common density

p(u|u0 ) = σ −1 φ((u − n)/σ).exp(−u0 )un0 /n!
n≥0
24 Advanced Probability and Statistics: Applications to Physics and Engineering

The joint pdf of all the pixel intensities in the image is then

P (u|u0 ) = ΠM
x,y=1 p(u(x, y)|u0 )

and in in this case, we do not introduce any regularization. Thus, the problem
amounts to constructing the mle of u0 given the matrix of measurements U =
((u(x, y))). We therefore consider the problem of measuring the parameter θ on
which the pdf of X1 depends given an iid sequence X1 , ..., Xn and ask how this
esimator behaves as n → ∞. let

L(X1 |θ) = logp(X1 |θ)

Then, the mle of θ based on the measurements X1 , ...Xn is given by



n
θ̂[n] = argmaxθ L(Xk |θ)
k=1

We write
θ = θ0 + δθ
where θ0 is the true value of θ and then note that

L(Xk |θ0 + δθ) = L(Xk |θ0 ) + Lk (Xk |θ0 )δθ + (1/2)Lk (Xk |θ0 )(δθ)2

so that the mle of θ is given approximately by

θ̂[n] = θ0 + δ θ̂[n]

where

n
δ θ̂[n] = argmaxδθ [Lk (Xk |θ0 )δθ + (1/2)Lk (Xk |θ0 )(δθ)2 ]
k=1

Thus,

n 
n
δ θ̂[n] = −[ L (Xk |θ0 )]−1 .[ L (Xk |θ0 )]
k=1 k=1

By the law of large numbers, this converges as n → ∞ almost surely to

E[L (X1 |θ0 )]/E[L (X1 |θ0 )] = 0

since  
 
E[L (X1 |θ0 )] = p (X1 |θ)dX1 = ∂θ p(X1 |θ)dX1 = 0

The LDP tells us at what rate does δ θ̂[n] converge to  zero. From the contraction
principle of LDP, if I(x, y) is the rate function of n−1 . k=1 (L (Xk |θ0 ), L (Xk |θ0 )),
n

then the rate function of δ θ̂[n] is given by

I0 (θ) = inf(x,y) {I(x, y) : −x/y = θ} = infy {I(−θy, y)}


Advanced Probability and Statistics: Applications to Physics and Engineering 25

[27] Supersymmetry in quantum stochastic calculus


Let Eab be the N × N matrix with a one in the (a, b)th position and zeros
at the other positions. Put σab = σ(Eab ). In other words, if 1 ≤ a, b ≤ r or
r + 1 ≤ a, b ≤ N , then σab = 0 and σab = 1 otherwise. Define

0r 0r×N −r
H = diag(0r , IN −r ) =
0N −r×r IN −r

Define
Ir 0r×N −r
K = (−1)H = diag(Ir , −In−r ) =
0N −r×r −IN −r
Then consider the Boson Fock space

Γs (L2 (R+ ) ⊗ CN )

and for u ∈ L2 (R+ ) ⊗ CN , let ua (t) denote its ath component, 1 ≤ a ≤ N .


Let Λab (t), 0 ≤ a, b ≤ N denote the usual noise processes of the Hudson-
Parthasarathy quantum stochastic calculus. Thus, we have the quantum Ito’s
formula
dΛab (t).dΛcd (t) = ad dΛcb (t)
where 0 ≤ a, b, c, d ≤ N and ab is one if 1 ≤ a = b ≤ N and zero otherwise. For
u ∈∈ L2 (R+ ) ⊗ CN , define u0 (t) = 1. Define

G(t) = Γ((−1)Hχ[0,t] ) = Γ(exp(iπHχ[0,t] ))

= exp(iπλ(Hχ[0,t] )) = exp(iπΛt (H))


It is clear that G(t) is both unitary and Hermitian as an operator in the Boson
Fock space Γs (L2 (R+ ) ⊗ CN ) and its action on the exponential vector |e(u) >
is given by
G(t)|e(u) >= |e((−1)Hχ[0,t] u) >= |e(Kuχ[0,t] + uχ(t,∞) ) >

Note that
K 2 = IN , K ∗ = K
We shall now prove that for s < t,
G(t)dΛab (s) = (−1)σab dΛab (s).G(t)
Indeed, we have for s < t,

< e(u)|G(t)dΛab (s)|e(v) >=< G(t)e(u)|dΛab (s)|e(v) >=

< e(Kuχ[0,t] +u.χ(t,∞) )|dΛab (s)|e(v) >


= va (s)(K ū(s))b ds. < e(Kuχ[0,t] +u.χ(t,∞) )|e(v) >
= va (s)(K ū(s))b ds < e(u)|G(t)|e(v) >
26 Advanced Probability and Statistics: Applications to Physics and Engineering

On the other hand,

< e(u)|dΛab (s).G(t)|e(v) >=< e(u)|dΛab (s)|e(Kvχ[0,t] + vχ(t,∞) ) >

= ūb (s).(Kv(s))a ds. < e(u)|e(Kvχ[0,t] + vχ(t,∞) ) >


= ūb (s)(Kv(s))a ds. < e(u)|G(t)|e(v) >
Next, we observe that

va (s)(K ū(s))b = Kbb va (s)ūb (s),

ūb (s)(Kv(s))a = Kaa va (s)ūb (s)


and further,
Kbb = (−1)sigmaab Kaa
since (−1)σab equals 1 if either 1 ≤ a, b ≤ r or r + 1 ≤ a, b ≤ N and it equals
−1 otherwise. Note that we are here assuming that K00 = 1, K0a = 1, 1 ≤ a ≤
r, K0a = −1, r + 1 ≤ a ≤ N and this extended K is symmetric.

This proves the claim. Now define the process ξab (t) by

dξab (t) = G(t)σab dΛab (t)

We have for s < t, using the above identity,

dξab (t).dξcd (s) = G(t)σab dΛab (t).G(s)σcd dΛcd (s)

= G(t)σab .G(s)σcd .dΛab (t).dΛcd (s)


= G(s)σcd G(t)σab dΛcd (s).dΛab (t)
= G(s)σcd (−1)σab σcd dΛcd (s)G(t)σab .dΛab (t)
= (−1)σab σcd .dξcd (s).dξab (t)
In terms of super-commutation relations, we can express this identity as

[dξab (t), dξcd (s)]S = 0, s < t − − − (1)

where for two operators A, B, their super-commutator is defined as

[A, B]S = AB − (−1)σ(A)σ(B) BA

The grading of ξab (t) process is σab = σ(Eab ). From (1), it follows on integration
that
[dξab (t), ξcd (s)]S = 0, s < t
Note that we have used the easily proved identity

G(t)G(s) = G(s)G(t)∀s, t
Advanced Probability and Statistics: Applications to Physics and Engineering 27

Now consider

dξab (t).dξcd (t) = G(t)σab .dΛab (t).G(t)σcd .Λcd (t)

= G(t)σab +σcd dΛab (t).dΛcd (t)


= G(t)σab +σcd ad .dΛcb (t)
= G(t)σab +σca ad dΛcb (t)
= G(t)σcb ad dΛcb (t)
a
= d dξcb (t)

Interchanging the ordered pairs (ab) and (cd) gives us


c
dξcd (t).dξab (t) = b dξad

Thus we get
[dξab (t), dξcd (t)]S = a
d dξcb − (−1)σab σcd cb dξad
Now Let A, B be N + 1 × N + 1 matrices. We define

ξA (t) = Aab ξab (t)

where summation over the repeated indices a, b is implied. Then, we have from
the above,

[dξA (t), dξB (t)]S = Aab Bcd ad dξcb (t) − (−1)σab σcd Aab Bcd cb dξad (t)

= (B. .A)cb dξcb (t) − ((−1)σ(A).σ(B) A .B)ad dξad (t)


where the notation (−1)σ(A).σ(B) A .B means

((−1)σ(A).σ(B) A .B)ad = (−1)σab Aab bc (−1)σcd Bcd

with summation over the repeated indices b, c being implied.

[28] Quantum mechanics and semi-martingales. Let X(t) be a RCLL semi-


martingale so that the Doleans-Dade-Meyer-Ito formula holds:

f (X(t + dt)) = f (dXc (t) + ΔX(t) + X(t−))

= f (X(t−)) + f  (X(t−))dXc (t) + f  (X(t−))d[Xc , Xc ](t)/2 + Δf (X(t))


where
ΔX(t) = X(t) − X(t−), Δf (X(t)) = f (X(t)) − f (X(t−))
or equivalently,

df (X(t)) = f  (X(t−))dXc (t) + f  (X(t−))d[Xc , Xc ](t)/2 + Δf (X(t))


Another Random Scribd Document
with Unrelated Content
Hän tähtäsi ja ampui, mutta hänen kätensä vapisi. Laukaus ei
tappanut härkää; se kääntyi vain ja juoksi vastakkaiselle puolelle
muun lauman luo. Mutta kuinka oli Alfredin käynyt? Edvard kääntyi
katsomaan siihen suuntaan. Valkoinen härkä ei ollut lähtenyt pakoon
kuten toiset lehmät ja härät; päinvastoin se tuli yhä lähemmäksi
Alfredia, joka kuitenkin jo oli saapunut määrätylle paikalleen puun
luokse, ja seisoi valmiina laukaisemaan. Nyt hän ampui, mutta härkä
ei kaatunutkaan; se valmistui hyökkäämään hänen kimppuunsa.
Nuorukainen heitti pyssyn kädestään salaman nopeudella ja kiipesi
puuhun. Hän oli pelastettu. Hän ei kuitenkaan voinut liikkua
paikaltaan. Härkä kiersi näet möyryten puuta, niin ettei hän päässyt
maahan. Silloin Edvard keksi oivan tuuman. Hän latasi pyssynsä ja
ärsytti Virkun härän kimppuun. Siten hän arveli saavansa härän
houkutelluksi pois puun luota. Mutta mitä tapahtuu. Samassa Edvard
näkee kahden muun härän täyttä laukkaa juoksevan häntä kohti, ja
nyt hänen oli pakko itsensäkin kiivetä puuhun, ettei tulisi kuoliaaksi
pusketuksi. Siinä kököttivät nyt molemmat veljet puussa. Edvardilla
oli kuitenkin se etu, että hänellä oli pyssy mukanaan. Sillä aikaa kun
Virkku yhä ärsytti valkoista härkää, houkutellen sitä yhä lähemmäksi
ja lähemmäksi Edvardin puuta, olivat molemmat toiset härät tulleet
aivan lähelle. Edvard nosti pyssyn poskelleen, tähtäsi ja — pam! siinä
kaatui toinen kuoliaana maahan. Hän oli juuri lataamassa pyssyään
ampuakseen toisenkin, kun hän äkkiä kuuli Virkun surkeasti ulvovan
— härkä oli sarvillaan heittänyt eläinraukan korkealle ilmaan. Samalla
hän näki, että Alfredin oli onnistunut päästä puusta alas, siepata
pyssynsä ja yks kaks jälleen kavuta oksalleen.

Äkkiä he saivat apua aivan odottamattomalta laholta, nimittäin


häriltä itseltään. Ne olivat kenties vanhoja vihamiehiä tai mikä nyt
lienee ollut syynä, mutta yhtäkkiä ne ryntäsivät toistensa kimppuun,
ja siten Virkku-raiska säästyi toisesta kuperkeikasta. Hetken aikaa
tappelivat härät vimmatusti. Silloin pamahtivat Edvardin ja Alfredin
pyssyt yhtä haavaa, ja molemmat suuret otukset vaipuivat kuolleina
maahan.

Nyt oli vaara ohi. Molemmat veljet laskeutuivat alas


pakopaikoistaan ja paiskasivat iloisesti toisilleen kättä.
KAHDESTOISTA LUKU.

Edvard ja Kate.

— Olipa se kova ottelu! huudahti Edvard.

— Tosiaan. Meillä on täysi syy kiittää Jumalaa pelastuksestamme…


Entä koiraparkamme… onkohan se pahoin haavoittunut?

He astuivat Virkun luo, joka makasi aivan hiljaa kieli riipuksissa, se


ähki ja uikutti surkeasti. Se ei kuitenkaan vuotanut verta eikä ollut
saanut mitään ulkonaista vammaa, mutta kun Edvard tuli hiukan
painaneeksi sen kylkeä, päästi se kovan parahduksen. Pojat tutkivat
sitä tarkemmin ja huomasivat, että kaksi kylkiluuta oli poikki. Se
tuotti tietysti kovia tuskia. Mutta kun Alfred oli tuonut sille vähän
vettä hatussaan, alkoi se heiluttaa häntäänsä ja elpyä.

— Kyllä se vielä paranee, sanoi Edvard, — antakaamme nyt vain


sen levätä kyllikseen. Ja tarkastakaamme nyt saalistamme…
Ajattelepas, Alfred, kuinka paljon lihaa! Meidän täytyy tehdä ainakin
kolme kaupunginmatkaa, ennenkuin saamme kaiken myydyksi.
— Niin, mutta kiirettä saamme pitää, sillä ilma alkaa jo lämmetä,
joten on vaikea säilyttää liha tuoreena. Jää sinä tänne, minä menen
noutamaan hevosen ja kärryt.

— Niin, minä jään tänne pitämään huolta Virkusta, ja nyljen härät


sillä aikaa. Lainaapas minulle puukkosi, minun tylsyy pian.

Edvard sai veitsen, ja sitten Alfred pyssy olalla lähti kotiin päin.
Kun hän palasi, oli Edvard nylkenyt kaksi härkää, ja Virkku oli taas
jalkeilla.

Sitten ryhtyivät veljet nylkemään kolmatta härkää. Kaksi


kuormallista täytyi heidän ajaa ennenkuin koko saalis oli saatu kotiin,
ja silloin olivat sekä Kimo että pojat perin väsyksissä. Nälissään he
myöskin olivat, mutta Alice oli valmistanut heille oivan illallisen, niin
että nälkä ja väsymys pian olivat tipotiessään. Pablo oli jo täysissä
voimissa ja pisteli tyytyväisenä poskeensa paistia.

— Maistuuko hyvältä? kysyi Alfred ja pani uuden paistinpalan


pojan lautaselle.

— Kyllä. Pablo ei saada näin hyvää ruoka kuopassa, vastasi Pablo


nauraen.

Hän oli oikein vilkas ja hauska, ja Alice kertoi, että poika oli
huvittanut häntä ja Editiä kaikenmoisilla taikatempuilla, muun
muassa hän oli heittänyt kolmella perunalla palloa yhtä haavaa, oli
saanut lautasen pyörimään hiilihangon päässä ja viiputtanut sitä
leukansa päällä.

Hyvissä ajoin seuraavana aamuna lähtivät pojat viemään


saalistaan kaupunkiin. He eivät kuitenkaan saaneet kaikkea yhdellä
kertaa, vaan täytyi heidän vielä kahtena seuraavanakin päivänä
käydä Lymingtonissa. Kun se oli tehty, sanoi Edvard:

— Luulenpa, Alfred, että jo on aika täyttää lupaukseni Oswaldille


ja käydä tervehtimässä metsäpäällikköä tai oikeammin hänen
tytärtään. Toivoisinpa, että koko juttu jo olisi suoritettu. Minun tekee
kovin mieli metsälle taas pitkistä ajoista. Mutta ennenkuin olen
puhunut Kate Stonen kanssa, en voi sellaisille retkille lähteä.

— Miksi et? kysyi Alfred kummastuneena.

— Oh, hän saattaisi kysyä minulta, olenko ollut metsästämässä, ja


minä… minä… lyhyesti sanoen, minä en tahtoisi valehdella tuolle
nuorelle tytölle.

— Milloin aiot lähteä.

— Huomenaamulla varhain.

— Huomenna… maltahan… niin silloin minulla on aikalailla työtä.


Perunat on mullattava, ja Pablo saa näyttää mihin hän kelpaa; hän
on nyt kyllin kauan laiskoitellut — huomenna hän voi tulla
puutarhaan tekemään työtä. Me saamme kovin paljon perunoita tänä
vuonna. Se on kyllä hyvä, mutta tiedätkös, Edvard, mitä minä
mielelläni tekisin? Tahtoisin aidata pienen maakaistaleen ja koettaa
kylvää viljaa. Olisipa muhkeata viedä omia jyviään myllyyn, vai mitä?

— Mutta mistä saisit auran ja hevosia?

— Käsivoimia, Edvard, käsivoimia! Me molemmat voimme kuokkia


koko lailla loma-aikoinamme, lantaa taas meillä on yllin kyllin, ja…
— Pelkään vain, että nuo uudet tulokkaat metsän tuolla puolen
kieltävät meitä ottamasta maata, keskeytti hänet Edvard.

— Kieltävät! Metsä on kruunun omaisuutta, ja me olemme


kuninkaan miehiä emmekä totta tosiaan kysy lupaa Cromwellilta tai
parlamentilta. Mutta kiirettä täytyy pitää, ja minä aionkin ryhtyä
työhön nyt heti. Nyt kun Pablo on täällä, on meillä enemmän
työvoimia. Kunpa vain saisin hänet työhön!… Muuten pitää minun
ostaa saha itselleni ensi kerralla kun lähden kaupunkiin. Höyläpenkin
tarvitsen myöskin. Ja kuulepas, Edvard, minulla on kerrassaan
suurenmoinen tuuma…

— Kerro siitä joskus toiste, pyysi Edvard innokasta veljeään. — On


jo myöhä, ja minun täytyy nousta kanojen kanssa, muista se. Ja jos
minun pitää kuulla kaikkia sinun tuumiasi, en ikipäivinä pääse
vuoteeseen.

Auringon noustessa olivat kaikki neljä sisarusta ja mustalaispoika


jo jalkeilla. Nyt, kuten aina ennenkin, luki Edvard aamurukouksen, ja
Pablo kuunteli kummastuneena. Hartaushetken päätyttyä kysyi
Alfred häneltä, ymmärsikö hän, mitä he olivat tehneet.

— Enpä juuri. Arvaan, että pyysitte päivänpaistetta ja kaunista


ilmaa.

— Ei, Pablo, selitti pikku Edit, — me rukoilimme Jumalaa tekemään


meistä hyviä ihmisiä.

— Te ette siis olla hyviä? kysyi Pablo. — Pablo ei olla paha.

— Kyllä Pablo, kaikki ihmiset ovat syntisiä, sanoi Alice, — mutta


jos rehellisesti koetamme olla hyviä, antaa Jumala meille anteeksi.
Ensi kerran kuuli nyt pikku oppimaton mustalaisparka Jumalasta
puhuttavan, eikä hän siitä paljonkaan ymmärtänyt.

Alfred tarvitsi Kimoa peltotyöhön, ja Edvard lähti siis jalkaisin


matkalleen. Pyssyn hän otti mukaan. Oswald oli tosin kieltänyt häntä
sitä ottamasta, mutta ajatellessaan äskeistä seikkailuaan villihärkien
kanssa, ei hän tahtonut lähteä aseetta. Nuorukainen astui reippaasti,
koira kintereillään, tällä kertaa ei Virkku päässyt mukaan, vaan
Valpas, toinen uusista pennuista. Edvardin mieli oli onnellinen ja
kepeä kuten ainakin ihmisen, joka huoletonna kulkee kauniilla säällä
vihriässä metsässä. Lauhkea kesätuuli hiveli hänen poskiaan ja
täysin siemauksin hän hengitti raitista metsän tuoksua. Hän rakenteli
tuulentupia, ajatukset karkeloivat sinne tänne huolettomina kuin
kevätperhoset — hän oli niin iloinen ja toiveikas. Mutta äkkiä hän
muisti, minne oli matkalla ja että hän metsäpäällikön kotona
varmaankin saisi kuulla uutisia pääkaupungista ja parlamentista. Ja
silloin hänen kasvonsa synkistyivät ja käsi puristui ehdottomasti
nyrkkiin. — Parlamentti, mutisi hän. — Murhapolttajat! Hän muisti
Arnwoodin palon ja hänen poskiansa poltti. Sitten hän taas alkoi
rakentaa tuulentupia. Parlamentti ja Cromwell ovat kukistetut.
Arnwood annetaan takaisin entiselle omistajalleen ja rakennetaan
uudestaan. Äkkiä sukelsi Katen kuva hänen mielikuvitukseensa
seisoen hänen rinnallaan, kun hän antoi käskyjä Arnwoodia
rakentaville työmiehille… Mutta nyt häiritsi Valpas hänen unelmiaan,
se haukkui vihaisesti ja juoksi hänen ohitseen.

Edvard loi silmänsä ylös, ja hänen katseensa kohtasi kookkaan,


metsänvartijanpukuun pukeutuneen miehen, jolla oli kavalat ja
vastenmieliset kasvot.
— Halloo, nuori mies! Mitä te täällä metsässä toimitatte? hän
huusi ja tuli lähemmäksi virittäen pyssynsä hanaa.

Edvard teki samoin ja vastasi sitten aivan levollisesti: — Minä


kuljen metsän läpi kuten näette.

— Kuljette, niinpä kyllä pyssy ja koira matkassa! Seuratkaa heti


minua. Salametsästäjien emme salli samoilla metsiä.

— Minä en ole salametsästäjä enkä seuraa teitä. Menkää tiehenne,


muuten joudutte tekemisiin minun kanssani.

— Teidän täytyy seurata minua, sanon minä.

— Silloin saatte raahata minua jäljestänne… Mutta minä sanon


teille vielä kerran, minä en ole salametsästäjä. Minä en ole
ampumassa metsänriistaa, vaan matkalla metsäpäällikön luo
vieraisille. Neuvon teitä siis olemaan varuillanne. Antakaa vain minun
kulkea edelleen rauhassa ja häiritsemättä. Jos minuun koskette,
tuotatte sillä vain itsellenne vahinkoa. Edvardin tyynessä
esiintymisessä oli niin paljon kylmäverisyyttä ja lujuutta, että
metsänvartija kyllä ymmärsi viisaimmaksi hiukan muuttaa röyhkeätä
puhetapaansa. Mutta hänen tyly äänensä osoitti hänen harmiaan.

— Te aiotte metsäpäällikön luo. Hyvä on. Hänen luokseen juuri


vienkin kaikki salametsästäjät, jotka saan kiinni. Te voitte kulkea
edelläni — tehkää hyvin, nuori mies.

Mutta siihen ei Edvard suinkaan suostunut.

— Teidän edellänne? Ei, laskekaa pyssynne puolihanaan, minä


teen samoin, ja silloin voimme kulkea rinnan. Mutta pian, minulla on
kiire.
Metsänvartijan täytyi vasten tahtoaan totella, ja molemmat
jatkoivat sitten yhdessä matkaa.

— Te sanoitte aikovanne käydä metsäpäällikön luona, sanoi mies


vähän ajan kuluttua. — Hän ei ole kotona.

— Kate-neiti on kai kuitenkin kotona.

— Hän näkyy tuntevan perheen, ajatteli metsänvartija ja kävi


paljon kohteliaammaksi. — Niin, hän on kyllä kotona, vastasi hän, —
näin hänet puutarhassa aamulla.

— Entä Oswald?

— Hänet tapaatte kyllä myöskin — te näytte tuntevan


talonväkemme hyvästi… saanko luvan kysyä kuka olette?

— Se ei kuulu teihin, vastasi Edvard. — Missään tapauksessa en


halua sanoa teille nimeäni, teille, joka olitte niin töykeä minulle
äsken.

Nyt oli metsänvartija aivan ymmällä. Mitähän ihmisiä mahtoi


nuorukainen olla? Mitäs, jos hän olisi joku hänen esimiehiään? Ei,
hänhän oli pukeutunut tavallisen metsänvartijan tapaan. Ja
kuitenkin… — Kunpa en vain joutuisi ikävyyksiin tästä hyvästä,
ajatteli mies.

Kun he saapuivat metsäpäällikön asunnolle, sanoi Edvard:

— Nyt minä menen sisään. Te olette kai metsävouti Oswaldin


alamaisia?
Menkää siis hänen luokseen ja sanokaa, että olette tavannut Edvard
Armitagen metsässä, ja että hän on täällä ja mielellään haluaisi
tavata
häntä.

Näin sanoen Edvard astui ovelle ja koputti. Metsäpäällikön tytär


avasi itse oven ja toivotti hänet sydämellisesti tervetulleeksi. Pian
seisoi Edvard toistamiseen herra Stonen työhuoneessa, ja sievä
Kate-neiti ojensi hänelle kätensä, kiittäen lämpimin sanoin rohkeata
nuorukaista, joka oli pelastanut hänet julmasta kuolemasta. — Kiitos,
sydämellinen kiitos, sanoi hän lopuksi.

— Minä en todellakaan ansaitse niin suurta kiitosta, vastasi Edvard


pidellen tytön kättä omassaan. — Olisin sen tehnyt kenelle hyvänsä.
Se oli velvollisuuteni miehenä. Aatelismiehenä, oli hän vähällä sanoa,
mutta huomasi ajoissa.

Kate nouti hänelle tuolin ja Edvard istui.

— Isäni on yhtä kiitollinen kuin minä, jatkoi Kate. — Mutta


sanokaa, mitä voimme tehdä puolestanne. Sanat ovat vain pieni
kiitos.

— Tehän olette jo osoittanut minulle kiitollisuuttanne, Kate-neiti!


Te olette ojentanut minulle, köyhälle metsänvartijalle, kätenne, ja
olette sallinut minun istua tässä ja puhua teille kuin vertaiselleni.

— Te olette pelastanut henkeni! Ettekö siis olisi minulle läheinen ja


rakas kuin oma veljeni? Velka on velka, ja… rehellisesti puhuen,
niin… Hän keskeytti puheensa ja loi silmänsä hämillään maahan.

— Entä mitä? Rehellisesti puhuen? Mitä sitten? kysyi Edvard.

— Niin, en usko, että te olette se, mikä sanotte. Tarkoitan, te ette


ole syntynyt metsänvartijaksi. Sitä ei isänikään usko.
— Olen hyvin kiitollinen teille siitä, että teillä on niin hyvät
ajatukset minusta, mutta minusta tuskin koskaan tulee muuta kuin
metsänvartija, ei ainakaan isänne aikana, jollen ehkä vaivu vielä
syvemmälle ja tule salametsästäjäksi. Tänään viimeksi oli muuan
teidän isänne käskyläisistä sieppaamaisillaan minut kiinni
salametsästäjänä. Ellen olisi miestä peloittanut, olisi minun käynyt
huonosti.

— Olitteko siis ampumassa peuroja? Ette suinkaan?

— En, neiti, minä en ole ollut metsällä siitä asti kuin viimeksi
tapasimme.

— Isäni tulee iloiseksi sen kuullessaan. Hänellä on paljon


sanomista, ja jos vain tahtoisitte, voisi hän tehdä paljon
puolestanne. Tosin hän ei enää ole yhtä hyvissä väleissä
johtohenkilöiden kanssa kuin ennen. Se johtuu…

— Kuninkaanmurhasta, keskeytti hänet Edvard. — Niin, minä


tiedän kyllä, että hän koetti estää tätä rikosta, ja minä kunnioitan
häntä siitä.

Katen silmiin nousi kyyneliä — ilonkyyneliä. — Kuinka ystävällisesti


puhutte, sanoi hän. — Ette usko, kuinka iloinen olen kuullessani
teidän kiittävän isäni menettelyä… Mutta tässä minä istun
juttelemassa enkä lainkaan muista, että teillä tietysti on sekä nälkä
että jano… Jane, Jane!

Ja nyt täytyi Janen tuoda nuorukaiselle ruokaa. Hänen syödessään


istui Kate ahkerasti ompelemassa, joskin hänen silmänsä tuon
tuostakin eksyivät Edvardiin katsoakseen, puuttuiko häneltä mitään.
Kun Edvard oli syönyt, vei Jane ruoan pöydästä, ja nuori
metsänvartija nousi tuoliltaan ja kiitti ruoasta. Hän aikoi lähteä
kotimatkalle, mutta siitä ei Kate tahtonut kuulla puhuttavankaan.

— Minulla on teille niin paljon puhumista, väitti metsäpäällikön


tytär. — Ensiksikin täytyy teidän sanoa minulle, mitä me — isäni ja
minä, voimme tehdä puolestanne.

— Minä en voi ottaa vastaan mitään tointa niiltä, joilla nykyään on


valta maassamme, vastasi Edvard, — jättäkäämme siis tämä asia
sikseen.

— Minä odotin kyllä tuota vastausta, vastasi nuori tyttö totisena,


— ja ymmärrän teitä hyvin. Niitä on kyllä monta nykyään, jotka
mielellään tahtoisivat päästä irti Cromwellista ja parlamentin
hallituksesta… Kukapa olisi aikanaan aavistanut, että asiat saisivat
niin onnettoman käänteen?… Missä muuten asutte?

— Metsän tuolla puolen, talossa, joka ennen oli isoisäni, vaan nyt
on minun.

— Asutteko yksin?

— En.

— Miksi olette niin umpimielinen? Voitte rauhallisesti luottaa


minuun, en koskaan tule väärinkäyttämään luottamustanne.

— Isoisäni kuoltua asun yhdessä vain veljeni ja kahden sisareni


kanssa.

— Onko veljenne teitä nuorempi?

— On.
— Entä sisarenne, ovatko hekin nuoremmat?

— Ovat.

— Te olette siis kasvatettu yhdessä eversti Beverleyn lasten


kanssa?
Everstin tarkoitus ei siis ollut tehdä teistä metsänvartijaa?

— Ei, minä olin aiottu sotilaaksi.

— Te olette kenties kaukaista sukua eversti Beverleylle?

— En. Minä en ole kaukaista sukua hänelle — Edvardia ei


tämmöinen ristikuulustelu oikein miellyttänyt — mutta jos eversti nyt
eläisi, niin taistelisin minä hänen joukossaan kuningashuoneen
puolesta… Mutta nyt minä olen vastannut niin moneen kysymykseen,
että teidänkin vuoronne, Kate-neiti, on kertoa vähän itsestänne…
Onko teillä sisaruksia?

— Ei, minä olen ainoa lapsi. Ja äitini on kuollut.

— Mitä sukua on perheenne?

Kate katsahti häneen kysyvästi. — Mitäkö sukua? Niin, äitini oli


Cooper syntyään.

— Cooper! Silloinhan olette aatelissukua.

— Niin.

Mutta nyt arveli Edvard jo viipyneensä kyllin kauan metsäpäällikön


talossa. Hän nousi siis istuimeltaan ja heitti hyvästi nuorelle tytölle.
Kate kiitti häntä vielä kerran lämpimästi siitä, että hän oli
pelastanut hänen henkensä, ja pyysi hartaasti häntä tulemaan toisen
kerran, kun isäkin oli kotona. — Jos te tuntisitte isäni, sanoi hän, —
pitäisitte hänestä yhtä paljon kuin minäkin. Hän on niin hyvä, niin
sanomattoman hyvä.

— Mutta muistakaa, Kate-neiti, että minä vihaan ja inhoan niitä


ihmisiä, joiden asiaa hän palvelee.

— Voinko luottaa teihin? Silloin uskallan sanoa teille, että hän ei


ole niin suuressa määrin parlamentin puolella kuin te luulette. Hän,
samoin kuin enoni Cooper, ei pidä Cromwellista. Mutta se jääköön
meidän kesken.

— Miksi hän siis on ruvennut noiden ihmisten palvelukseen?

— Hän ei itse hakenut tätä tointa. Se annettiin hänelle. Toiset


tahtoivat näet hänet pois tieltään, koska hän ei sokeasti tahtonut
seurata heitä kaikessa.

— Hyvästi nyt, Kate-neiti, kiitos ystävällisyydestänne minua halpaa


metsänvartijaa kohtaan.

— Milloin tulette isääni tervehtimään?

— Ei ole hyvä minunlaiseni salametsästäjän seisoa hänen tuimien


kasvojensa edessä, vastasi Edvard hymyillen, — mutta kukaties
jonakin kauniina päivänä joudun kiinni, ja silloin hän kyllä saa minut
nähdä, ja te samoin.

— Minä en tahdo kehoittaa teitä käymään metsällä, sanoi nuori


tyttö, — mutta sen kuitenkin sanon, että jos niin teettekin, ette
kuitenkaan joudu siitä itävyyksiin, — jos oikein tunnen isäni. Hyvästi
vielä kerran ja kiitos!

Ja Kate ojensi hänelle kätensä, jonka hän kohteliaasti kohotti


huulilleen. Nuori tyttö salli sen punastuen, ja syvästi kumartaen lähti
Edvard Beverley metsäpäällikön talosta.
KOLMASTOISTA LUKU.

Satimessa.

Edvard riensi heti ystävänsä Oswaldin luo, joka jo oli


metsänvartijalta kuullut saavansa vieraita.

— Sinä puhuit kauan metsäpäällikön tyttären kanssa, sanoi hän, —


ja se ilahduttaa minua, koska se tietysti kohottaa arvoasi täällä.
Keropää, jonka aamulla tapasit, oli kovin innokas toimessaan. Mutta
minä tukin hänen suunsa vakuuttamalla hänelle, että me käymme
yhdessä metsästämässä metsäpäällikön luvalla, ja että sinä olet
paras ampuja koko metsässä. Jos joskus joudut kiinni
metsästyksestä, niin neuvoisin sinua sanomaan, että käyt
metsästämässä minun luvallani. Silloin pääset kaikista ikävyyksistä.
Sinä, joka olet pelastanut metsäpäällikön tyttären, voit ammuskella
peuroja mielin määrin metsäpäällikön siitä piittaamatta.

— Kiitos tarjouksesta, mutta enpä usko käyttäväni sitä hyväkseni.


Ottakoot vain kiinni minut, jos saavat.

— Sinä olet taipumaton, huomaan minä. Sinä et nähtävästi kerta


kaikkiaan tahdo ottaa vastaan mitään keropäiltä. Mutta et voi
kuitenkaan estää minua metsävoutina kieltämästä väkeäni, etteivät
he saa sinua hätyyttää — sehän on selvä.

— Kiitos, mutta minun täytyy tottua olosuhteisiin sellaisina kuin ne


nyt kerran ovat, vastasi Edvard. Sitten hän kertoi Oswaldille
mustalaispojasta, jonka he olivat saaneet salakuopastaan. Oswald
puolestaan kertoi tarkemmin metsänvartijasta, jonka Edvard oli
aamulla tavannut; ei Oswaldkaan pitänyt miehestä, hän oli muuten
ollut vasta kaksi viikkoa toimessa. Hänen nimensä oli Tom.

Edvard oli yötä metsävoudin luona. Aamun koitteessa hän nousi


vuoteelta, ja pian hän taas oli kotimatkalla, Valpas kintereillään.

— Hän on hyvin herttainen tyttö, ajatteli Edvard kulkiessaan


metsän halki, — ja kuinka kiitollinen hän oli minulle. Mutta luultavasti
en saa enää koskaan nähdä häntä, ellei minua ehkä kuljeteta
vankina hänen isänsä luo.

Näissä mietteissä hän oli saapunut niin syvälle metsään, että hän
arveli voivansa ampua vähän metsänriistaa. Täällä hän kai ainakin
saattoi olla rauhassa äreältä metsänvartijalta. Hän tiesi, että
läheisyydessä oli lampi, jonka reunalla peurojen oli tapana levätä
keskipäivän helteessä. — Sinne minä menen, ajatteli hän, heittäytyi
maahan ja alkoi varovasti ryömiä nuoren metsän lävitse.

Viimein hän saapui lammikolle. Siellä ei kuitenkaan ollut peuroja,


— mutta kuka loikoi tuolla ruohikossa nukkuen niin, että nenä soitti?
Itsepä Tom, metsänvartija, joka edellisenä päivänä oli Edvardia
ahdistanut. Valpas oli ruveta haukkumaan, mutta Edvard rauhoitti
sitä, ja sitten hän varpaisillaan hiipi Tomin luo. Herättämättä miestä
hän hiljaa otti hänen pyssynsä, avasi sankin ja puhalsi siitä
sankkiruudin pois.
— Ampukoon nyt minua mielensä mukaan. Sillä minua hän kai
vainoo. Mutta eipä hän minua niinkään helposti nujerra… Niin,
silminnähtävästi hän on ihmisajolla; muuten hän kai olisi ottanut
koiran matkaansa.

Edvard hiipi pois samaa tietä kuin hän oli tullutkin, ja oli pian
viidakon toisella puolella. Mutta minne oli Valpas joutunut? — Valpas,
Valpas! Missä olet? Kas siinä! Niin, Valpas oli tehnyt tuhmuuksia. Se
oli näet haistanut, että Tomin taskuissa oli lihaa. Edvardin poistuttua
se oli mennyt nuuskimaan metsänvartijan taskuja. Siitä oli tämä
luonnollisesti herännyt. Hän tunsi heti koiran eilisestä ja arvasi, ettei
sen isäntäkään ollut kaukana. Kun koira juoksi Edvardin jäljestä,
seurasi Tom sitä kappaleen matkan päässä.

Edvard astui rauhallisesti eteenpäin. Hän ei nyt enää ajatellut


metsästystä, vaan suuntasi kulkunsa suoraan kotia kohti. Tiellä
häntä alkoi janottaa, ja kun hän juuri sattui kulkemaan pienen puron
ohi, heittäytyi hän hetkeksi lepäämään. Sammutettuaan janonsa hän
jäi vielä kuuntelemaan puron iloista lorinaa ja vaipui syviin ajatuksiin
kokonaan unohtaen ajan. Mutta äkkiä hän säpsähti unelmistaan,
Valpas murisi, jotain oli tekeillä. Tuota pikaa hän latasi pyssynsä ja
nousi seisomaan nähdäkseen, mikä oli hätänä. Ja aivan oikein! Siinä
seisoi Tom puoleksi piilossa erään puunrungon takana ja tähtäsi
häneen. Hän kuuli jo pyssynhanan napsauksen, mutta laukausta ei
seurannut. Samassa astui Tom esiin piilopaikastaan ja yritti lyödä
Valpasta pyssynperällä. Edvard huusi hänelle ja varoitti häntä koiralle
pahaa tekemästä, mutta Tom ei ollut tietääkseen.

— Kiittäkää onneanne, että pyssynne petti, huusi Edvard


vihoissaan.
— Minä en ampunut teitä. Koiraa minä tähtäsin, ja sen riiviön minä
vielä kerran ammunkin, kun vain sen tapaan.

— Vai niin! Sitä te ette tee. Sitäpaitsi tähtäsitte minuun. Mutta


minä olen itse puhaltanut ruudin pyssystänne, niin että minun on
kiittäminen itseäni — ja teidän uneliaisuuttanne siitä, että kävi
niinkuin kävi. Viisaimmin tekisin, jos nyt ampuisin teidät, mutta en
tahdo ampua aseetonta miestä; senvuoksi sanon vain: Pötkikää
tiehenne niin pian kuin mahdollista. Kas niin, yks kaks kolme,
muuten saatte maistaa pyssystäni. Näin sanoen Edvard kohotti
pyssyn poskelleen.

Tom huomasi hänen tarkoittavan täyttä totta, ja lähti kiireesti


käpälämäkeen. Mutta tuskin hän oli päässyt kantoväliä ulommaksi,
niin hän alkoi syytää kirouksia ja uhkauksia suun täydeltä nuoren
miehen jälkeen.

Edvard ei ollut levollinen. Hän ei luottanut siihen, että Tom


todellakin oli lähtenyt, eikä hän millään muotoa olisi tahtonut, että
tuo konna olisi hiipinyt hänen jälkeensä ja saanut tietää hänen
asuinpaikkansa. Senvuoksi hän teki monta kierrosta ja mutkaa
eksyttääkseen takaa-ajajansa. Oli jo pimeä. Yhä katseli Edvard
tarkasti ympärilleen nähdäkseen, ajoiko Tom todella häntä takaa, ja
viimein hän pimeässä näkikin varjon, joka hiipi puulta puulle. — Vai
siinäkö olet, arveli Edvard. — Silloin saatkin käyttää sääriäsi, sillä nyt
minä juoksen. Annapas olla, missä paikoin oikein olenkaan… Hän
katseli ympärilleen ja kun hän huomasi olevansa aivan lähellä
veljensä salahautaa, juolahti hänen mieleensä mainio tuuma.

Hän suuntasi kulkunsa kuopalle päin ja katsellessaan taakseen hän


huomasi Tomin yhä seuraavan jäljessään.
Kun hän saapui paikalle, oli metsänvartija aivan hänen
kintereillään; hän astui yhä edelleen reippain askelin ja piti huolta
siitä, että salahauta jäi hänen ja Tomin väliin. Tämä otti aika
harppauksen — ja pöksähti suoraan päälaelleen kuoppaan. Edvard
kuuli hänen kiljaisevan, ja hänen pyssynsä laukesi samassa. — Kas
niin, se tekee sinulle hyvää! sanoi Edvard. — Saat kuin saatkin
maata siinä yhtä kauan kuin Pablo raukka, niin ehkä hiukan kesytyt.
Tule, Valpas, nyt me molemmat tarvitsemme jotain suuhumme.
Kiiruhtakaamme kotiin.

Pian hän olikin kotona metsänvartijantalossa. Sammutettuaan


ensin nälkänsä alkoi hän kertoa sisaruksilleen päivän tapahtumisista.
Mustalaispoika, joka myöskin tarkasti kuunteli hänen kertomustaan,
hypähti pystyyn huudahtaen: — Nyt hän maata kuopassa.
Huomenna Pablo ottaa pyssyn ja ampua hänet.

— Ei suinkaan, poikani! sanoi Edvard, ja pikku Edit torui Pabloa ja


sanoi, ettei saa ampua toisia ihmisiä.

— Paha mies tahtoa ampua herran! väitti Pablo, joka ei lainkaan


voinut ymmärtää, että olisi väärin tappaa tuollainen lurjus armotta.

Alfred ja Edvard neuvottelivat nyt siitä, miten heidän tuli menetellä


kavalan Tomin suhteen, ja viimein päätettiin, että Alfred seuraavana
aamuna varhain ratsastaa Oswaldin luo asiasta ilmoittamaan.

Niin tapahtuikin. Oswald oli ensin yhtä kova kuin Pablokin. —


Jääköön sinne, se lurjus! sanoi hän. — Hän on saanut ansionsa
mukaan. Mutta viimein hän kuitenkin suostui lähtemään Alfredin ja
parin muun metsänvartijan seurassa salakuopalle. Kun he saapuivat
kuopalle, kumartui Oswald ja huusi:
— Kuka on siellä alhaalla?

— Minä Tom!

— Oletko vahingoittunut?

— Kyllä hyvin, hyvin pahasti. Pyssyni laukesi, kun putosin, ja minä


sain kuulan jalkaani, oi, kuinka siitä on vuotanut verta.

Hetken aikaa ponnisteltuaan onnistui heidän saada mies kuopasta


ylös; he sitoivat nenäliinan hänen säärensä ympäri estääkseen
verenvuotoa, ja antoivat hänelle vettä. Tom virkistyikin tästä koko
lailla, mutta kävellä hän ei jaksanut, ei millään muotoa. Mikä siis nyt
neuvoksi?

— Jos minä saan määrätä, niin ratkaisemme sen asian helposti,


virkkoi Alfred vieden Oswaldin hiukan syrjään. — Ei käy laatuun, että
nämä molemmat metsänvartijat saavat tietää, missä minä asun.
Jättäkäämme siis heidät haavoitetun luo, siksi aikaa kun te ja minä
menemme kotiin noutamaan kärryjä; samalla voimme ottaa vähän
leipää väellenne. Sitten viemme Tomin kärryillä kotiin teidän
luoksenne, ja ennen päivän koittoa olemme minä ja Kimo taas
kotona.

Oswald ja Alfred eivät viipyneet kauan matkalla. Alfred ratsasti


Kimolla, ja vanha metsänvartija astui hevosen rinnalla. Sillä aikaa
kun Kimo söi, ennättivät Oswald ja molemmat veljet keskustella
päivän kirjavista tapahtumista. Metsävouti arveli, että metsäpäällikkö
Stone heti ajaa Tomin palveluksestaan saatuaan tietää asiasta. Mutta
siitä ei Edvard pitänyt.
— Hän voi tuottaa paljoa enemmän pahaa, jos hänet ajetaan
paikasta, kuin nyt, ollessaan teidän silmäinne alla, sanoi hän. —
Saammepa nähdä, miten hän esittää asian.

— Kas, siinähän on mustalaispoikanne, lausui Oswald hiukan


myöhemmin nähdessään Pablon. — Hänellä on oikeastaan hauskat
kasvot; mutta, jatkoi hän matalalla äänellä, — mustalaiset ovat
omituista väkeä, älkää luottako häneen liiaksi, ennenkuin olette
koettaneet häntä. He ovat helposti vihaan syttyviä, mutta jos
kohtelette häntä hyvin, kiintyy hän teihin syvästi. Te voitte saada
hänestä iloa, mutta myöskin surua — aina sen mukaan, miten häntä
kohtelette. Ennen kaikkea, älkää lyökö häntä. Kuri on vain pahaksi.

— Ei, me emme lyö häntä, sanoi Alfred.

— Mitä hän muutoin toimittaa? kysyi Oswald edelleen.

— Ei mitään. Hän ei ole vielä oikein voimissaan, niin että hän


auttaa vain Editiä kanojen hoidossa… niin ja tosiaan, viime yönä hän
viritti muutamia ansoja, ja hänellä oli paljon parempi onni kuin
minulla. Minä sain vain yhden kaniinin, mutta hän sai kolme kaniinia
ja yhden jäniksen.

— Tiedätkö, Alfred, antakaa te hänen vain siinä suhteessa toimia


omin päin. Hän on siinä taitava ja se huvittaa häntä. Kovaa työtä
ette voi häneltä vaatia… Ja kuulkaahan, Edvard, teidän tai sinun
oikeastaan… pitäisi joskus tuoda hänet minun luokseni, jotta hän
oppisi tuntemaan tien.

— Sen teen! lupasi Edvard. — Sinäkö lähdet kyytiin, Alfred?


— Kyllä lienee parasta, että Alfred ajaa, sanoi Oswald. — Ei käy
päinsä, että metsänvartija näkee minun lainanneen sinulta kärryt,
Edvard. Alfredia hän ei tunne.

Kimo valjastettiin siis kärryjen eteen, ja saatuaan ruokaa väelle


lähtivät Oswald ja Alfred ajamaan salahaudalle. He tapasivat Tomin
paljoa reippaampana; pian hän makasi kärryissä oljilla. Ja sitten
lähdettiin ajamaan edelleen metsän halki. Haavoitettu huusi
kauheasti, kun kärryt tuon tuostakin tärähtivät epätasaisella tiellä,
mutta viimein he kuitenkin onnellisesti saapuivat kotiin hänen
asunnolleen.

Vaikea yö oli heillä kaikilla ollut, varsinkin Alfredilla. Hän viipyi nyt
pari tuntia Oswaldin luona levähtääkseen vähän, ennenkuin taas
lähti matkalle.

— Minä annan kyllä sitten tiedon veljellesi ja sinulle, kuinka Tomin


laita on, ja mitä ryövärijuttuja hän sepittää, lupasi Oswald. — Mutta
vasta kahden viikon kuluttua voitte minua odottaa.

Koska Kimo halusi takaisin talliinsa, kävi kotimatka nopeasti. Ja


Alfred oli niin vaipunut ajatuksiinsa ja suunnitelmiinsa, joita hän
rakensi tulevaisuuden varalle, ettei aika hänestä tuntunut lainkaan
pitkältä. Äkkiä joku huusi reippaasti "hei", ja Edvard tarttui Kimon
suitsiin.

— Sinä tulet kuin kutsuttu, Alfred, sanoi hän, — minä, näetkös,


olen hankkinut vähän ruoanlisäystä Alicen varastohuoneeseen. Otin
pyssyni ja kuljin sitä tietä, jota tiesin sinun tulevan ja matkalla
ammuin nuoren kauriin. En tosin aikonut metsästää, mutta hyvä
saalis tämä oli, sillä ruokatavaramme alkavat olla vähissä.
Alfredin avulla nosti Edvard kauriin kärryihin, jonka jälkeen he
jatkoivat matkaa kotiin. Tiellä kertoi Alfred matkastansa ja ehdotti
Edvardille, että hän jäisi kotiin pariksi päiväksi uutta aitaa tekemään.
Tähän Edvard mielellään suostui ja kun he olivat tulleet kotiin ja
syöneet aamiaista, ottivat he kirveensä ja menivät kaatamaan
mäntyjä, joita Alfred aikoi käyttää rakennustarpeiksi.
NELJÄSTOISTA LUKU.

Uusi kuningas.

— No, Alfred, mitä sinä nyt oikeastaan aiot toimittaa? kysyi


Edvard, kun he olivat saapuneet puiden kaatopaikalle.

— Niin, näetkös, minä olen merkinnyt noin kolme tynnyrinalaa


maata, joka on yhdessä rivissä puutarhan kanssa ja aivan puhdas
puista. Tämän paikan ympärille aion rakentaa paaluaidan niistä
puista, joita nyt alamme kaataa, sittemmin luon maapenkereen
paalutuksen sisäpuolelle ja istutan siihen pensasaidan. Tiedän missä
kasvaa orapihlajia tuhansittain, ja ne aion kaivaa maasta aikaisin
ensi keväänä ja istuttaa, kun olen saanut multapenkereen valmiiksi.
Kun aidattu ala sitten päälle päätteeksi vielä vahvasti lannoitetaan,
tulee siitä mainio laidunmaa lehmille, vasikoille ja vanhalle Kimolle.

— Niin, niin, sinä saatat kyllä olla oikeassa, tuuma on kerrassaan


mainio. Mutta kas, tuossa tulee Pablo.

— Ei hän ainakaan tule työtä tekemään, tuumasi Alfred. — Mutta


häntä huvittaa ehkä nähdä puuhaamme. Muutoin luulen, että saan
hänet narratuksi työhönkin. Arvaapas kuinka… Minä, näetkös, aion
puhua hänelle niinkuin pitäisin häntä kerrassaan kelpaamattomana
pienimpäänkin työhön. Luulenpa melkein, että se kiihottaa häntä
käymään käsiksi. Ja kun hän sitten on saanut työnsä valmiiksi, aion
kehua häntä vallan kauheasti ja olla kovin kummastunut.

— Tuumasi ei ole hullumpi. Kunpa hän vain ei olisi liian veltto.

— Hän ei oikeastaan ole veltto, hän on vain niin tottumaton


tekemään työtä, ja sitä hänen täytyy oppia. Kas niin, toimeen!
huudahti Alfred, riisui takin yltään ja tarttui kirveeseen. Edvard
seurasi hänen esimerkkiään. Sitten he ryhtyivät työhön, ja vasta
kaadettuaan puoli tusinaa pitkiä kapeita puita, jotka paraiten
soveltuivat laudoiksi, lepäsivät he hetken aikaa.

— Hei, Pablo! huusi Alfred mustalaispojalle, joka koko ajan oli


maannut ruohikossa heidän puuhaansa katselemassa, — sinusta on
kai hauskempi vain katsella; sen kyllä arvaan.

Pablo ei vastannut. Mitäpä hän olisikaan sanonut? Hän ei kerta


kaikkiaan kelvannut raatamaan. Sen hän tiesi. Veljekset ryhtyivät
taas työhön uudella innolla. He oikein hikoilivat.

— Kovaa työtä, Pablo! sanoi Alfred pyyhkien hikeä otsaltaan.

— Niin, hyvin kovaa. Pablo ei olla kyllin vahva, kuului vastaus.

— Ei, sinä osaat vain virittää linnunansoja ja pyytää kaniineja —


sen kyllä tiedämme.

— Niin, vastasi Pablo, — ja te syödä niitä.

Edvard nauroi. — Siinä sait, Alfred. Ja siitä näkee, että kumpikin


teette hyötyä omalla tahollanne.
— Molemmat hyviä, sanoi Pablo. — Vahva mies kaataa puita,
heikko katkaisee oksat pois. Näin sanoen Pablo tarttui pieneen
kirveeseen ja alkoi reippaasti katkaista oksia puiden rungoista.

Alfred vilkutti Edvardille silmää. Hänen juonensa oli onnistunut. He


työskentelivät nyt ahkerasti edelleen, kunnes arvasivat
päivällishetken olevan käsissä; heillä ei tosin ollut muuta kelloa kuin
ruokahalunsa, mutta se ei koskaan erehtynyt, ja kun he saapuivat
kotiin, olikin Alice jo kattanut pöydän, ja ruoka oli valmis.

Tytöt olivat hyvin hämmästyneet kuullessaan, että Pablokin oli


ollut työssä, ja kun Alfred vielä päälle päätteeksi kiitti hänen
ahkeruuttaan, lisäsi Edit siihen:

— Pablo, sinä olet oikein kiltti poika ja ahkeruutesi palkaksi saat


kantaa munavasuani illalla, kun tulet kotiin.

— Palkinto sekin, nauroi Alfred.

Iltapuolella alkoi leikki uudelleen, ja illan tullen he olivat kaataneet


niin monta puuta kuin tarvittiin. Seuraavana päivänä ajettiin puut
kotiin. Sitten kaadettiin vielä muutamia paksumpia puita pylväiksi ja
alettiin kaivaa kuoppia pylväitä varten, ja viimein naulattiin säleet
suurilla nauloilla pylväisiin. Ja niin oli aitaus valmis. Mutta kokonaista
kaksi viikkoa kului, ennenkuin nuo kolme tynnyrinalaa oli saatu
aidatuksi, ja sittenkin olivat kaikki kolme työssä aamusta iltaan.

Nyt sai Edvard taas käyttää vapauttaan, hänen alkoikin taas


mielensä palaa Oswaldin luo. Hän tahtoi tietää, miten Tomin, tuon
lurjuksen laita oli, ja sitäpaitsi hän myöskin halusi kuulla vähän
pääkaupungin uutisia. Ehkäpä hän mielellään tahtoi nähdä erästä
nuorta tyttöäkin, jonka isää hän ei suosinut, mutta siitä hän ei
kenellekään puhunut. Pablon hän aikoi viedä mukanansa, kuten
Oswald oli käskenyt.

Alfred neuvoi myöskin veljeään lähtemään. — Mutta kotiin tultuasi


saat jälleen lähteä liikkeelle — tai menen minä; jommankumman
meistä täytyy lähteä kaupunkiin ostamaan vähän työkaluja ja muita
pikkutarpeita. Pablokin tarvitsisi kovin uusia vaatteita.

— Ja minullakin olisi ostoksia, sanoi Alice. — Minulla ei ole


maitovateja, ei suolaa eikä pyttyjä. Hulikoita tarvitsen niinikään.
Parasta, että kirjoitan teille oikein muistilistan.

— Onko sinulla mitään myymistä? kysyi Edvard.

— Onpa niinkin, minulla on voita.

— Entä sinulla, Edit?

— Minun kananpoikani ovat vielä liian pienet. Mutta kun ne tulevat


kyllin suuriksi, saa Alfred myydä ne ja ostaa minulle hanhia ja
ankkoja, sen lisäksi tahdon muutamia kalkkunoita. Mutta ensin
täytyy Alfredin rakentaa niille asunto, kuten hän on luvannut.

Alfred väitti kyllä täyttävänsä lupauksensa ja sanoi heti rupeavansa


kaivamaan lammikkoa ankoille. Mutta palkaksi siitä täytyi Editin
auttaa häntä sipulipenkereen puhdistamisessa, ja siihen Edit
suostuikin.

Seuraavana aamuna Edvard lähti jo varhain matkalle pyssy olalla


Pablon ja Turvan seurassa. He suuntasivat kulkunsa Oswaldin
asunnolle päin ja puhelivat vilkkaasti. Pablo kertoi Edvardille entisistä
vaiheistaan, ja Edvard huomasi, että pienen mustalaispojan mieli oli
vielä puhdas ja turmeltumaton, vaikka hän olikin elänyt huonossa
seurassa. Mutta kesken puhettaan Pablo äkkiä nosti sormen
suulleen, tarttui Turvaa niskaan ja viittasi pienelle kummulle.
Tarkemmin katsoessaan huomasi Edvard mitä mustalaispojan terävä
silmä oli keksinyt, kummun takaa näkyi kaksi lehmänsarvea. Edvard
viritti pyssynsä hanan ja hiipi lähemmäksi, kunnes hän oli niin likellä,
että hyvästi saattoi tähdätä. Laukaus — ja eläin kaatui maahan,
Turva päästettiin nyt irti, ja se syöksyi heti lehmän luo. Edvard ja
Pablo riensivät sen perästä. Silloin he huomasivat, että ammutun
lehmän vieressä seisoi vasikka, joka oli noin kahden viikon vanha. He
seisoivat siinä neuvottomina tietämättä mitä tehdä. Viimein sanoi
Edvard:

— Meillä ei ole nyt aikaa viipyä, Pablo, vaikka Alfred kyllä


mielellään ottaisi vasikan. Toivokaamme, että se pysyy emän luona,
kunnes palaamme.

He astuivat sitten edelleen ilman muita seikkailuja, ja saapuivat


päivällisaikaan Oswaldin asunnolle. Hän ei ollut kotona, mutta hänen
vaimonsa lähti noutamaan häntä metsäpäällikön talosta.

Neljännestunnin kuluttua palasivat vaimo ja Oswald.

— Tervetuloa, Edvard, sanoi metsävouti ojentaen kätensä


nuorukaiselle. — Olin metsäpäällikön luona ja hän kysyi taas kovasti
sinusta. Minä kerroin hänelle Tomin käytöksestä sinua kohtaan, ja
hän oli hirveän suuttunut tuohon lurjukseen. "Mitä sanoo Tom itse
seikkailustaan?" kysyi hän minulta. "Oh", vastasin minä, "hän
luulottelee, että hän muka ajoi takaa peuraa ja putosi yhtäkkiä
kuoppaan, jota hän ei huomannut pimeässä".

— Viisaasti keksitty! huudahti Edvard. — Uskoiko metsäpäällikkö


hänen juttuaan?
— Herra Stone ei tietysti uskonut sanaakaan koko sepityksestä,
sanoi metsävouti. — Mutta tosiaan… olinpa vallan unohtaa.
Metsäpäällikkö tahtoi välttämättä tietää, missä asut. Hän haluaa
tavata sinua ja kysyi, enkö voisi opastaa häntä sinun luoksesi.

— Ja mitä sinä vastasit?

— Minä sanoin, että sinä asut kovin kaukana, ja että minä olen
ollut niin harvoin luonanne, etten ole oikein varma tiestä. Mutta
metsäpäällikön tytär tahtoisi myöskin mielellään käydä tervehtimässä
sinua ja sisariasi.

— Pelkäänpä, ettemme voi heitä estää, Oswald. Metsäpäälliköllä


on sananvalta tässä metsässä, ja minun täytyy mukaantua. Kunpa
hän vain ei rupeaisi epäilemään asian oikeaa laitaa.

— Älkää tehkö mitään valmistuksia hänen tuloaan varten, sanoi


Oswald.

— Ei suinkaan, vastasi Edvard, — on aivan yhdentekevää, vaikka


hän yllättäisikin meidät kotiaskareissamme.

— Päinvastoin on se vain eduksenne, vastasi Oswald. — Sitä


pikemmin häviävät hänen epäluulonsa, jos sisaresi esimerkiksi
pesevät vaatteita ja sinä ja Alfred ajatte lantaa pellolle.

— Mitä uutta Lontoosta? kysyi Edvard.

— Minä en tiedä mitään, mutta Janella kai on koko pussillinen


uutisia.
Syö sinä täällä päivällistä, niin minä sillä välin menen keittiöön
Janen puheille. Vähän ajan kuluttua palasi Oswald takaisin.
Jane toi sitten ruokaa sekä Edvardille että Pablolle. Heidän
syödessään ehdotti Pablo, että hän vielä samana päivänä palaisi
kotiin kertomaan Alfredille pikku vasikasta. Ja vahvan aterian
syötyään Pablo lähtikin matkaan. Edvard käski hänen sanoa
Alfredille, että hän seuraavana aamuna kello yhdeksän aikana ajaisi
kummun luo, jossa kaadettu lehmä oli.

Vähän ajan kuluttua tuli Oswald.

— Onko poika mennyt? kysyi hän.

— On, vastasi Edvard ja kertoi samalla lehmästä ja vasikasta.

— Minä luulen, että vielä saatte paljon hyötyä pikku Pablosta,


sanoi
Oswald.

— Niin minäkin. On oikein hauska nähdä, kuinka hän jo on


kiintynyt meihin kaikkiin. Me kohtelemmekin häntä kuin kotiväkeä. —
Mutta unohdanpa aivan kysyä kaupungin uutisia.

— Niitä on minulla sekä hyviä että huonoja, Hamiltonin herttua,


Hollannin jaarli ja lordi Capell ovat mestatut.

Edvard huokasi. — Vielä murhia! Emmekö enää koskaan saa kuulla


muuta?
Siinäkö kaikki?

— Ei. Skotlantilaiset ovat julistaneet Kaarle Toisen kuninkaaksi.

— Todella! Missä hän on?


— Hän on kai Hollannissa, Haagissa. Mutta pian hän kai lähtee
Pariisiin ja sieltä Skotlantiin.

Edvard oli kerrassaan suunniltaan uutisen kuultuaan. Jos huhuissa


oli perää, niin loppuisi hänen hiljainen elämänsä metsässä piankin,
sen päätöksen hän nyt itselleen teki. Hänen sydämensä sykki entistä
nopeammin, hänen poskiaan kuumotti, ja hänen täytyi juoda aimo
kulaus olutta Oswaldin suuresta puukannusta vilvoittaakseen
vertansa. Hänen ei enää tehnyt mieli puhella, ja hän pyysi sen
vuoksi päästä levolle; hänenhän täytyi nousta varhain seuraavana
aamuna.

Pian oli Edvard vuoteessa, mutta hän ei saanut unta levottomilta


ajatuksiltaan. Kyllä hän tulee, Kaarle-kuningas, mietti hän. Ja
samassa tuokiossa kun hän astuu jalkansa Skotlannin rannalle, on
hänellä sotajoukko ympärillään. Ja siinä tahdon minäkin olla.

Ja Edvard Beverley näki kauas tulevaisuuteen, näki itsensä


taistelevan nuoren kuninkaan rinnalla… ja kun hän viimein vaipui
uneen, uneksi hän vain sodasta ja miekan kalskeesta. Toisenkin
kuvan näytti hänelle unenhaltia; hän pelasti Kate-neidin ja hänen
isänsä heidän omien puoluelaisiensa väkivallanteoilta — ja sitten hän
heräsi. Päivä paistoi iloisesti sisään, ja yks kaks hän oli vaatteissa,
haki Turvan tallista ja lähti kotimatkalle.

Saapuessaan sille paikalle, missä kuollut lehmä makasi, ei hän


tavannut ainoatakaan elävää olentoa vasikkaa lukuunottamatta.
Alfred ja Pablo eivät olleet vielä saapuneet. Mutta lehmä oli tietysti
nyljettävä, ja Edvard ryhtyi heti toimeen. Äkkiä alkoi Turva murista,
ja siinä saapuivatkin jo odotetut hevosen ja kärryjen kera. Nyt oli
saatava kiinni vasikka, joka koko ajan pyöriskeli heidän ympärillään.
Mutta sitä ei ollut helppo ottaa kiinni, niin kesytön se oli. Alfred
arveli, että Turva ehkä voisi kaataa sen, mutta Pablo tiesi paremman
keinon. Hän astui kärryjen luo, otti esille pitkän ohuen nuoran ja
laittoi silmukan sen toiseen päähän.

— Nyt saatte nähdä, kuinka Pablo tehdä, hän sanoi. — Näin


Espanjassa härkiä pyydetään. Kutsuvat sitä lassoksi, selitti hän.
Sitten hän kiersi toiselle puolelle vasikkaa, joka ammui surkealla
äänellä parin sadan kyynärän päässä heistä.

— Päästäkää Turva irti vasikan kimppuun, huusi mustalaispoika, ja


Alfred totteli. Koira syöksyi vasikkaa kohden ja ajoi sen edellään
Pabloon päin, joka seisoi valmiina lasso kädessään. Kun vasikka oli
tullut kyllin lähelle, heitti Pablo nuoran ja osui niin tarkasti, että
silmukka kiertäytyi elukan kaulaan sievästi. Vasikka oli vankina ja
parin minuutin kuluttua se oli hyvässä tallessa kärryjen pohjalla.

— Hyvin osattu, Pablo, sanoi Edvard. — Sinä olet reipas poika, ja


vasikka on sinun omasi. Eikö totta, Alfred? Annammehan vasikan
Pablolle?

— Annetaan vain, sanoi Alfred. — Sinä olit oikein taitava, Pablo, ja


sentähden on vasikka sinun, kuten Edvard ehdotti.

Mustalaispoika ei sanonut mitään, mutta näytti kovin tyytyväiseltä.

Koska Alfred mielellään lähti kaupunkiin, päätti hän seuraavana


aamuna ajaa sinne myymään lehmänlihat. Vielä oli hänellä suuri
vasu munia ja kolme tusinaa kananpoikia, jotka hänen piti myydä
Alicen laskuun. Sitäpaitsi oli Alice antanut hänelle pitkän muistilistan,
johon hän oli merkinnyt koko joukon talouskaluja, joita hän tarvitsi
jokapäiväisissä askareissaan ja jotka veljen oli määrä ostaa. Pablo
sai tulla mukaan, jotta hän vastedes omin päinkin löytäisi
Lymingtoniin. Edvard sitävastoin jäi kotiin. Hänellä oli yllin kyllin
työtä puutarhassa ja sitäpaitsi ei hän sallinut sisarten jäädä yksin
kotiin.

Mutta heti kun Alfred ja Pablo olivat lähteneet, unohtui Edvardilta


koko puutarhahomma. Hän otti esille isänsä miekan ja alkoi sitä
kiilloittaa, ja kun hän oli saanut sen oikein välkkyväksi, oli hän niin
sotaisella tuulella, että heitti pyssyn olalle ja lähti metsiä
samoilemaan saadakseen olla yksin ja rauhassa ajatella. Hän kulki,
kulki vain umpimähkään eteenpäin, ja tuontuostakin iski joku oksa
hatun hänen päästään, siitä yksinkertaisesta syystä, että hän katsoi
maahan eteensä eikä ylös puihin. Äkkiä hän kuuli hevosen hirnuntaa.

— Mitä kummaa se on? ajatteli hän ja katsoi ympärilleen. Silloin


hän huomasi villejä hevosia, jotka kävivät laitumella, ja suureksi
kummakseen hän samassa huomasi joutuneensa aivan oudoille
maille. Hän ei vielä koskaan ollut käynyt tässä osassa metsää. Hän ei
myöskään koskaan ollut aavistanut, että metsässä oli kesyttömiä
hevosia.

— Tottahan osaan kotiin takaisin, arveli hän ja istui hiukan


levähtämään. — Kylläpä Alfredin silmät lentäisivät selälleen, jos hän
näkisi nuo kauniit hevoset. Edvard päätti kuitenkin kertoa veljelleen
löydöstään, ja silloin ei Alfred luultavasti saisi rauhaa, ennenkuin pari
hevosta seisoisi hänen tallissaan. — On tietysti hyvinkin vaikea ottaa
kiinni noita villejä ratsuja, mutta Alfred ei jätä mitään kesken, kun
hän kerran on saanut mitä päähänsä. Hevoset tulivat jotenkin lähelle
Edvardia, mutta kun hän liikahti, säikähtivät ne ja lähtivät
nelistämään, myrskytuulen tavoin ne kiitivät eteenpäin liehuvin
harjoin ja hännät pystyssä.
— Mitähän tietä minun oikeastaan pitää kulkea päästäkseni kotiin,
mietti Edvard. Pohjoista kohti. Niin, mutta missä on pohjoinen? Sitä
ei ollut helppo tietää. Hän koetti seurata aurinkoa, mutta taivas oli
kokonaan pilvien peitossa ja uhkasi sadetta. Hän valitsi silloin tiensä
umpimähkään — ja vaipui pian taas syviin ajatuksiin. Mutta mitä
kauemmin hän kulki, sitä oudommalta tuntui hänestä seutu, ja
viimein hän oli aivan ymmällä.

Oli jo jotenkin pimeä, mutta ei ainoatakaan tähteä ollut näkyvissä.


Vähitellen syttyivät kuitenkin taivaan kynttilät, ja Edvard erotti
Otavan ja Pohjantähden, jotka vanha Jaakko oli opettanut hänet
tuntemaan. Hän suuntasi nyt kulkunsa suoraan pohjoista kohti
astuen milloin hiljakseen, milloin taas reippain askelin muistaessaan
sisariaan, jotka tietysti levottomina odottivat kotona hänen tuloaan,
ja varmaan olisivat kovassa tuskassa, ellei hän ennen yötä joutuisi
kotiin.

Rientäessään näin pimeän metsän halki, hän äkkiä näki


muutamien puiden välissä ikäänkuin tulikipinän. Hän luuli sitä ensi
silmäyksellä kiiltomadoksi, joka maassa loisti, mutta kun valo
uudistui, tuli hän ajatelleeksi, että se ehkä johtui piikivestä, jota
iskettiin tulirautaa vasten. Ehdottomasti hän seisahtui nähdäkseen,
mitä se merkitsi.

You might also like