I-tutorial Learning of Invariant Representations in Sensory Cortex - - PowerPoint PPT Presentation

i tutorial
SMART_READER_LITE
LIVE PREVIEW

I-tutorial Learning of Invariant Representations in Sensory Cortex - - PowerPoint PPT Presentation

The Center for Brains, Minds and Machines I-tutorial Learning of Invariant Representations in Sensory Cortex tomaso poggio CBMM McGovern Institute, BCS, LCSL, CSAIL MIT I-theory Learning of Invariant Representations in Sensory Cortex


slide-1
SLIDE 1

The Center for
 Brains, Minds and Machines

tomaso poggio CBMM McGovern Institute, BCS, LCSL, CSAIL MIT

I-tutorial

Learning of Invariant Representations in Sensory Cortex

slide-2
SLIDE 2

2

1.Intro and background 2.Mathematics of invariance 3.Biophysical mechanisms for tuning and pooling 4.Retina and V1: eccentricity dependent RFs; V2 and V4: pooling, crowding and clutter 5.IT: Class-specific approximate invariance and remarks

I-theory

Learning of Invariant Representations in Sensory Cortex

slide-3
SLIDE 3

3

Class 23 Wed Nov 26 Learning Invariant Representations:

  • 3. Biophysical mechanisms for tuning and pooling
slide-4
SLIDE 4

4

Summary of previous class

slide-5
SLIDE 5

So far: compact groups in M-theory extend proves invariance+uniqueness theorems for

  • partially observable groups
  • non-group transformations
  • hierarchies of magic HW modules (multilayer)

M-Theory

slide-6
SLIDE 6

6

End Summary

slide-7
SLIDE 7

Biophysical mechanisms for tuning and pooling

  • A single cell model of simple and complex cells (any fixed nonlinearity is OK)
  • Hebb synapses, PCAs and Gabor
  • PCAs, Foldiak and pooling
  • Mirror-symmetric tuning in the face patches
slide-8
SLIDE 8

...

Our basic machine: a HW module

(dot products and histograms for an image in a receptive field window)

  • The cumulative histogram (empirical cdf) can be be computed as
  • This maps directly into a set of simple cells with threshold
  • …and a complex cell indexed by n and k summating the simple

cells

slide-9
SLIDE 9

Dendrites of a complex cells as simple cells…

Active properties in the dendrites of the complex cell

slide-10
SLIDE 10

Biophysical mechanisms for tuning and pooling

  • A single cell model of simple and complex cells (any fixed nonlinearity is OK)
  • Hebb synapses, PCAs and Gabor
  • Pooling
  • Mirror-symmetric tuning in the face patches
slide-11
SLIDE 11

Linking ¡Conjecture

slide-12
SLIDE 12

Hebb synapses imply that the tuning of the neuron converges to the top eigenvector of the covariance matrix of the “frames” of the movie of objects transforming. The convergence follows the Oja flow Different cells are exposed (during development) to translations in different directions.

Unsupervised ¡tuning ¡(during ¡development) ¡ and ¡eigenvectors ¡of ¡covariance ¡matrix

slide-13
SLIDE 13

Gaussian ¡aperture: ¡the ¡cortical ¡equation

slide-14
SLIDE 14

The ¡cortical ¡equation: ¡general ¡properties

slide-15
SLIDE 15
slide-16
SLIDE 16

Cortical ¡equation ¡in ¡2D: ¡ natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

Rust et al. 2005 Carandini

slide-17
SLIDE 17

In 1D the eigenvectors are Gabor like

  • functions. In 2D the solutions are also Gabor

with an orientation orthogonal to the direction

  • f motion. Motion, together with high-pass

filtering in the retina induces symmetry breaking that allows non-symmetric solution to emerge. Note that for motion at constant speed

2D ¡eigenvectors

slide-18
SLIDE 18
slide-19
SLIDE 19

Gaussian ¡aperture: ¡the ¡cortical ¡equation

slide-20
SLIDE 20

Prediction ¡agrees ¡with ¡data!

slide-21
SLIDE 21

Cortical ¡equation ¡in ¡2D: ¡ natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

Rust et al. 2005 Carandini

slide-22
SLIDE 22

Cortical ¡equation ¡in ¡2D: ¡ natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

slide-23
SLIDE 23

Cortical ¡equation ¡in ¡2D: ¡ natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

slide-24
SLIDE 24

Natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

slide-25
SLIDE 25

Natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

slide-26
SLIDE 26

Natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

slide-27
SLIDE 27

Prediction ¡agrees ¡with ¡data ¡(not ¡fully)

slide-28
SLIDE 28

Beyond ¡V1: ¡work ¡in ¡progress

slide-29
SLIDE 29

Beyond ¡V1, ¡towards ¡V2 ¡and ¡V4

slide-30
SLIDE 30

Beyond ¡V1, ¡towards ¡V2 ¡and ¡V4: ¡ wavelets ¡of ¡wavelets

slide-31
SLIDE 31

We ¡are ¡working ¡on ¡implementing ¡ the ¡full ¡theory ¡ (the ¡corresponding ¡model ¡contains ¡ Hmax ¡and ¡convolutional ¡networks ¡ as ¡special, ¡simple ¡cases)

slide-32
SLIDE 32
slide-33
SLIDE 33

Cortical ¡equation ¡in ¡2D: ¡ natural ¡images, ¡Gabor-­‑like ¡receptive ¡fields

Rust et al. 2005 Carandini

slide-34
SLIDE 34

Prediction ¡agrees ¡with ¡data ¡(not ¡fully)

slide-35
SLIDE 35

V2 ¡and ¡V4: ¡ wavelets ¡of ¡wavelets

Responses of two model complex cells pooling 3D wavelets (top) and two real V4 cells (bottom) to various stimuli used by Gallant. Red/orange indicates a high response and blue/green indicates a low response.

slide-36
SLIDE 36

Face patches in IT

slide-37
SLIDE 37

Face ¡patches

slide-38
SLIDE 38

Magic algorithm “works”

slide-39
SLIDE 39
slide-40
SLIDE 40
slide-41
SLIDE 41
slide-42
SLIDE 42

Linking ¡Conjecture

  • Predicts Gabor-like tuning of simple cells in

V1

  • Qualitatively predicts tuning in V2/V4
  • Predicts/justifies mirror-symmetric tuning
  • f cells in face patch AL
slide-43
SLIDE 43

Magic ¡architecture ¡for ¡pose-­‑invariant ¡face ¡identification

View-­‑tuned ¡units, ¡tuned ¡to ¡full-­‑face ¡ templates ¡for ¡different ¡view ¡angles Viewpoint ¡tolerant ¡units ¡ (complex ¡units)

Joel+Jim+tp, 2010

slide-44
SLIDE 44

If Hebbian learning holds also for the face patches, then the theory predicts that between the view tuned patches and the view-invariant patch there should be mirror symmetric cells. Lemma: PCAs for faces are odd or even functions, and so energy models complex cells are always even

slide-45
SLIDE 45

Response of simple AL “model” cells to different views of a face

  • f brain theory
slide-46
SLIDE 46
slide-47
SLIDE 47

47

Remarks

slide-48
SLIDE 48

The ¡ventral ¡stream: ¡ an ¡architecture ¡that ¡learns ¡and ¡discount ¡transformations ¡ an ¡architecture ¡determined ¡by ¡invariances ¡of ¡the ¡physical ¡world

  • ¡The ¡goal ¡of ¡the ¡cortical ¡hierarchy ¡is ¡learning ¡and ¡factoring ¡out ¡transformations ¡(learning ¡from ¡

data ¡“any” ¡invariance)

  • ¡Features ¡and ¡statistics ¡of ¡natural ¡images ¡do ¡not ¡matter, ¡transformations ¡do, ¡are ¡learnable ¡from ¡

random ¡noise ¡images

  • Most ¡important ¡ ¡are ¡complex ¡cells ¡and ¡their ¡pooling ¡domain: ¡this ¡represents ¡symmetries/

invariances ¡learned ¡from ¡the ¡world ¡-­‑-­‑ ¡eg ¡equivalence ¡classes ¡of ¡templates

  • Invariances ¡are ¡learned ¡by ¡memory-­‑based ¡computation, ¡just ¡recording
  • ¡Aperture ¡size ¡determines ¡which ¡transformation, ¡transformation ¡determines ¡tuning ¡in ¡V1 ¡V2 ¡V4
  • Architecture ¡predicts ¡stability ¡of ¡visual ¡perception ¡wrt ¡small ¡eye ¡motions
  • Class-­‑specific ¡transformations ¡predict ¡class-­‑specific ¡modules
slide-49
SLIDE 49
slide-50
SLIDE 50

¡ ¡Top ¡module

Associative memory