viernes, 29 de junio de 2007

EL ARMA SUBMARINA :EL SILENCIO

Run Silent, Run Deep
Submarine operations and operational characteristics are largely determined by the accoustical properties of the ocean environment.
Run Silent
Traditionally, a submarine’s ability to avoid detection is defined in terms of its acoustic signature. There are many sources contributing to a submarine’s acoustic signature. Machinery and other propulsion-related vibrations enter the water through the hull and radiate in all directions. The propeller resonates when turning, and cavitation (noise generated by bubbles collapsing) can develop. Additionally, the turbulent flow of water around the ship can excite the hull itself. Each type of noise has a unique pattern, which can differ with speed, depth, and water conditions. Quieting technologies continue to improve and are increasingly available to backfit older submarines. Hull coatings, improved propeller design, and quieted propulsion plant equipment reduce the submarine’s overall noise levels, especially at high speeds.
There are a wide variety of noise sources present in the underwater environment, but the main, consistent contribution comes from only a few types. Ambient noise, unlike other sources, does not come from a particular direction or source. The noise level is the same everywhere in the local area.

The most obvious contribution to the ambient noise is the action occurring on the surface of the ocean. The greater the size of the waves, the greater the ambient noise contribution. The waves are driven by the winds, so there is a direct correspondence between the steady wind speed and the sea state. The greater the wind speed or sea state, obviously the greater the ambient noise contribution. The frequency of the noise from sea state tends to be greater than 300 Hz.
The second main contribution to ambient noise comes from shipping in general. In regions where there are many transiting ships, the ambient noise will be increased substantially. This noise, in contrast to the noise from sea state, will be at low frequency (< 300 Hz).
The third possible ambient noise source is biologics, meaning sea-life. These are as widely varied as they are unpredictable. One common source is snapping shrimp. Others include whales and dolphins.
Self-noise [SN] comes from the noise from the platform the sonar is on or from the flow of water across the receiving array itself. This self-noise has a minimum value which is present regardless of the speed that the array is traveling through the water, and the self noise will increase due to flow noise and the increase in noise from the platform which carries it. Self noise has a frequency and speed dependence.
Passive accoustic sources fall into two main categories: broadband and narrowband sources.

Broadband sources create acoustic energy over a wide range of frequencies, similar to a thermal source in electro-optics. Typical broadband sources are noise from either the propeller/shaft, flow noise and some propulsion systems. Noise from the propeller and shaft is generally at low frequency, meaning less than 1000 Hz. The rate of rotation can amplitude modulate the noise, and this propeller blade rate tonal noise can be detected and demodulated to measure the shaft or propeller blade rate.

Narrowband sources radiate within a small band about a particular frequencies, or class of frequencies. Typical sources are the various pieces of machinery found in every ship, including example, pumps, motors, electrical generation equipment and propulsion systems. When specifying narrowband sources, it is important to also specify the frequency at which it occurs.
Cavitation noise is produced from the motion of turning propellers on surface vessels, submarines or a torpedoes. Cavitation is the formation of partial vacuums in a flowing liquid as a result of the separation of its parts. When these partial vacuums bubbles collapse, they produce cavitation noise, which sounds like a pulsed note and can be heard at considerable ranges, depending on the size of the propeller and the speed of rotation. A torpedo produces a very high pitched and fast rotation noise. Distinctive propeller blade broadband cavitation noise can render a submarine detectable by passive sonar systems. Generally, the level of noise from a ship increases with ship size and speed. The loudest noise from normal ship operation comes from cavitation of the propeller, which adds 10-15 dBA to the noise level of regular operation.


The tactical speed of a submarine is that speed at whichthe submarine is quiet enough to remain undetected while tracking enemy submarines effectively, with sources of self-noise reduced to the point that other submarines and ships can be detected using onboard passive sonar sensors. The the maximum burst speed of a submarine is the highest speed that can be achieved by the submarine's propulsion system, regardless of the self-noise created in the process. In the past, the tactical speed of a submarine was typically significantly less than its burst speed, though in the case of the SSN-21 Seawolf it is said that the tactical speed of 25 knots is a significant fraction of the burst speed of the boat.

Run Deep
The largest variation is the speed of sound in water occurs with changes is depth. Obviously the pressure increases with depth causing a uniform increase of +1.7 m/s for every 100 meters. Furthermore, the ambient temperature changes with depth. A plot of propagation speed (velocity) as a function of depth, is called the sound velocity profile (SVP), and it is the fundamental tool for predicting how sound will travel. Neglecting salinity, the SVP can be obtained from sampling the ambient temperature at various depths (the pressure contribution never varies). The water can be divided into three vertical regions.

The surface (seasonal) layer is at the top and is the most variable part. As the name suggests, the profile will changes depending on the time of day (diurnal variation) and the season (seasonal variation).
The main thermocline connects the seasonal layer with the uniformly cold water found deep in the ocean.
Below about 500 meters, all of the world's oceans are at about 34o F. The positive gradient in the deep isothermal region is solely due to the pressure effect.
The Deep Sound Channel is a subsurface duct for long-range transmission of acoustic signals. Also known as the SOFAR (SOund Fixing And Ranging) channel, this channel occurs at an average depth of one kilometer where the speed of sound in sea water is slowest (about 1480 meters per second). The Axial depth of the channel, which is the depth of minimum sound speed between the sea surface and the ocean floor, is also called the primary sound channel. Sound does not propagate well in water with a depth less than or equal to it's wavelength because it is scattered, reflected and refracted by the sea surface and bottom, causing the sound to dissipate. The The Deep Sound Channel is formed at depths greater than the wavelength of the cutoff frequency. The Deep Layer is isothermal, but characterized by a positive gradient due to pressure affect on sound velocity. Provided the water is deep enough, there will be sufficient velocity increase to turn sound rays back around towards surface, leading to a convergence zone effect. Once sound enters the channel, it remains in the channel until it dissipates: increasing temperature at the upper-bound of the channel causes sound to refract down into the channel, and increasing pressure at the lower-bound of the channel causes sound to refract up into the channel.
The Sonic Layer Depth (SLD) is the depth of maximum sound speed above the deep sound channel axis. Channel thickness is the depth interval between the sound speed maxima denoting the top and bottom of the sound channel. More than one, or multiple channels, may occur on the same profile. Zero Layer Depth is a special case where Sonic Layer Depth occurs at the surface, which happens most frequently in tropical and subtropical regions where surface winds are insufficient to cause mixing.

The Surface Channel is an acoustic duct between the sea surface and the sonic layer depth. The Near-surface Layer is the layer extending from the sea surface to sonic layer depth. A Half Channel is a special case where the sound speed profile exhibits a minimum at the sea surface and a maximum at the sea floor. By definition, neither sonic layer nor sound channels may occur in a half channel. Normally this is a winter phenomenon associated with polar regions and the Mediterranean Sea. A Secondary Sound Channel is a sound channel located between sonic layer depth and the axial depth of the deep sound channel. Also called a near-surface sound channel to distinguish it from the deep sound channel.

The Best Depth for a submarine to avoid detection by a hull-mounted sonar is conventionally regarded as the Sonic Layer Depth plus 100 meters. This assumption is based on the premise that maximum downward refraction of sonic energy will occur at the depth of the strongest minimum sound speed gradient, thus causing short horizontal sonar ranges. The depth of the bottom of the surface layer of water is a great determinant of sonar performance from a hull-mounted surface-ship sonar because the target submarine may choose to proceed below the layer. Cross-layer detection is usually limited in range because of the refraction or bending of the sound rays. Shallow layers favor the submarine going deep below the layer to detect the surface ship's radiated noise when its active sonar transmission is trapped in the surface layer and/or refracted sharply downward. The tactical answer to this situation from the escort point of view is to vary the vertical angle of transmission of his sonar projector so as to penetrate the layer, or to deploy a variable-depth sensor below the layer.

These layers mark the transition from positive to negative temperature and salinity gradients, which are good operating points for a submarine such as a boomer to sit and be hard to detect, since sound waves radiate away from such a point. This is also a bad point or the boat to listen (for the same reason); so there is a best depth to listen and a different best depth to avoid detection. In deep water a towed array can be deployed from the best depth to avoid detection and combine the best of both worlds. But towed arrays would not be used in shallow water.

Requirements for submarine periscope depth operations have been increased by integration with carrier battle groups, littoral operations, and contributions to joint surveillance. Improved periscope depth performance is therefore imperative. Submarines normally achieve satisfactory trim at 150 ft and 1/3 bell propulsion setting (about 5-6 knots). In review of the sound velocity profile (SVP) the dive officer (DO) compensates for the expected change in ship's trim at periscope depth [PD]. Unfortunately, the DO may not have the time to do this properly due to operational commitments. Watch to watch compensations are normally unsatisfactory. Since the SVP may change dramatically in shallow waters the old history may be invalid and the compensation wrong from the start. Many DO's prefer to go up to PD heavy enough to prevent broaching and get a better trim there.


Operating at periscope depth beneath a seaway, a submarine is in an unstable condition. As the free surface is approached, the seaway forces increase, trying to pull the submarine to the surface. To counter these forces, the ship’s ballast is changed and control surfaces are used, and manual operation for long periods at periscope depth taxes the ship’s control party. Operators must remain aware of the environmental conditions. If the sea becomes quiescent, the submarine will sink out. If the sea suction forces are greater than the ballast and planes authority, the submarine will broach the free surface increasing detection risk by several orders of magnitude. Other events, like temperature or salinity changes, can also have major effects on reliable depth keeping. Contributing to the environmental issues, the need to use minimum speed for a given sea state to control the detectable mast feather reduces the available planes authority, and increases the difficulty of depth control.

The vast majority of problems with submarine depth control concerned course changing. There are several competing effects. Use of the rudder causes the ship to roll, reduces speed, and may introduce some moment. As the course changes, the effects of sea direction change. To maintain depth control requires adjustment of propeller speed, adjustment of trim, and very close attention by the ship's control party.

All submersibles have a safe operating envelope (SOE). The boundaries of the SOE are dictated by the boat's ability to recover from a control plane casualty. the shallow limits are set to prevent either an inadvertent excursion above collision avoidance depth or an inadvertent broach. The deep limits are sliding with depth of water so that the submersible will not ground on the bottom.
The pressure on a submarine's hull increases with depth, limiting the depth below the ocean surface at which it can operate. The water pressure increases by 44.45 pounds per square inch for every 100 feet of additional depth in salt water.

Submarine designers normally intend their creations to operate well away from the hull's physical limits, imposing a safety margin that varies from country to country [1.5 in the USA, 1.75 in the UK, and 2.0 in Germany]. Typically a submarine will have three diving depths:

a normal operating or "test" depth
a safe excursion depth
a crush or collapse depth
A submarine's hull is normally constructed of steel, or exceptionally of titanium. Special High Yield [HY] steel alloys have been developed to increase the diving depth of submarines, although the improved depth performance of these alloys imposes a price of increased fabrication challenges. These special steels are denominated by their yield stress in thousands of pounds per square inch -- thus HY-80 steel has a yield stress of 80,000 pounds per square inch [corresponding to a depth of 1,800 feet], HY-100 a a yield stress of 100,000 pounds per square inch [corresponding to a depth of 2,250 feet], and so on.

During World War II, American fleet submarines normally operated at a depth of 200 feet, though in emergencies they would dive to a depth of 400 feet.
Post-War American submarines, both conventional and nuclear, had improved designs and were constructed of improved materials [the equivalent of "HY-42"]. These boats had normal operating depths of some 700 feet, and a crush depth of 1100 feet.
The Thresher, the first American submarine constructed of HY-80 steel, reportedly had a normal operating depth of 1,300 feet, roughly two-thirds the crush depth limit imposed by the HY-80 steel.
The Seawolf, the first American submarine constructed of HY-100 steel, is officially claimed by the Navy to have a normal operating depth of "greater than 800 feet," but based on the reported operating depth of the Thresher, it may be assumed that the normaly operating depth of the Seawolf is roughly double the official figure.
The Soviet Alfa submarines, constructed of titanium, reportedly had an operating depth of nearly 4,000 feet.


Sources and Resources
Norman Friedman, Submarine Design and Development [Naval Institute Press, Annapolis MD, 1984] is the source for the specific depth estimates.
Underwater Acoustics - a brief introduction to the topic, with links to more technical material on the subject.
Evaluation of Shallow Water Submarine Response @ Naval Postgraduate School - Principal Investigator: Fotis A. Papoulias


--------------------------------------------------------------------------------

FAS | Military | DOD 101 | Systems | Ships | Submarines ||||
Index | Search | Join FAS

De que acero esta hecho un submarino

Es fundamental el acero, las soldaduras eléctricas,que unen las secciones pues un submarino soporta 30 o más atmosferas cuando navega a 300 o más metros de profundidad. Ningun constructor u operador dice publicamente hasta que profundidad puede descender operativamente-

Hay acero HY 120 y mayres. El valor HY 80, indica que soporta 80 Ksi

Hay submarinos rusos que tienen una profundidad opoerativa de 4000 feet. !!!
A continuacion datos técnicos del acero, etc

HY 80 ALLOY STEEL

--------------------------------------------------------------------------------

Metal Suppliers Online: Material Property Data
Alloy Steels HY80

Specifications
Related Tradenames and Metal Names
Chemistry Data
Welding, Machining/ General Data
Physical Data
Mechanical Data
Links to Related Data



--------------------------------------------------------------------------------
Specifications
The following specifications cover Alloy Steels HY80


MIL S-16216 (Plate)
MIL S-21952





--------------------------------------------------------------------------------
Property Results
No Related Metal names.




--------------------------------------------------------------------------------
Chemistry Data : [top]

There is no chemistry data available for this grade.


--------------------------------------------------------------------------------

Principal Design Features HY-80 is a high yield strength (minimum of 80 ksi) , low carbon, low alloy steel with nickel, molybdenum and chromium. It has excellent weldability and notch toughness along with good ductility even in welded sections.

--------------------------------------------------------------------------------

Applications This alloy is best known for use in shipbuilding for welded hull plates and structural use.

--------------------------------------------------------------------------------

Machinability HY-80 steel is readily machined when in the quenched and tempered condition. It machines with the same feeds and speeds as for other low alloy steels with Rockwell C 20 hardness.

--------------------------------------------------------------------------------

Forming HY-80 may be readily cold or hot formed by conventional bending, or forming, processes. It does exhibit more springback than plain carbon steel so allowance must be made for that when bend forming.

--------------------------------------------------------------------------------

Welding Weldments of HY-80 are noted for good ductility, notch toughness and strength. It is best welded using the metal-arc process with low hydrogen electrodes of Type E-10018 or E-11018. Use approved weld procedures so as to not apply too much heat input per inch of weld bead, which would otherwise cause degradation of notch toughness. Electrodes should be warmed before use to drive off any moisture to avoid hydrogen pick-up in the weld. Preheating is not required, except for very heavy section thickness welds or heavily constrained welds. Post-heating is not required but a stress relief anneal, after welding of sections of 1-1/2" thick or greater, is desirable. However the alloy may be used in the as-welded condition.

--------------------------------------------------------------------------------

Heat Treatment HY-80 is supplied in the quenched and tempered condition so a heat treatment as such is not required. It may be given a stress relief anneal, if deemed necessary, at 1200 F for one hour per inch of thickness followed by slow furnace cooling (not exceeding 200 F per hour) to 500 F, followed by air cooling.

--------------------------------------------------------------------------------

Forging Because the alloy is supplied in the heat treated and tempered condition it should not be subsequently reheated for forging.

--------------------------------------------------------------------------------

Hot Working Hot working, if necessary, may be done in the range of 600 to 200 F.

--------------------------------------------------------------------------------

Cold Working HY-80 has very good ductility and is readily cold worked by conventional means. Bend radii of 2t for material up to one inch thick and 3t for material thickness' of one to two inches thick are recommended.

--------------------------------------------------------------------------------

Annealing A stress relief anneal may be done at 1200 F for 1 hour per inch of thickness, followed by furnace cooling at a rate not in excess of 200 F per hour down to 500 F. From there it can be air cooled.

--------------------------------------------------------------------------------

Aging Not applicable to this alloy.

--------------------------------------------------------------------------------

Tempering HY-80 is supplied in the tempered condition of 80 ksi minimum yield strength. No additional tempering should be attempted.

--------------------------------------------------------------------------------

Hardening The alloy will harden by cold working. It is supplied in the hardened and tempered condition and should be used that way.

--------------------------------------------------------------------------------

Other Mechanical Props HY-80 is noted for notch toughness. Charpy V-notch values are 50 ft lb. for material 1/2" to 1-1/2" thick and 30 ft lb. for over 1-1/2" thick.

--------------------------------------------------------------------------------



Physical Data : [top]


Density (lb / cu. in.) 0.28
Specific Gravity 7.83
Specific Heat (Btu/lb/Deg F - [32-212 Deg F]) 0.11
Melting Point (Deg F) 2595
Thermal Conductivity 264
Mean Coeff Thermal Expansion 6.3
Modulus of Elasticity Tension 29
Modulus of Elasticity Torsion 12



--------------------------------------------------------------------------------
Mechanical Data : [top]
There is no Mechnical data available for this grade.




--------------------------------------------------------------------------------


[top]
Nickel - http://www.nidi.org/

Copper - http://www.copper.org/

Titanium - http://www.titanium.org/

Steel Lynx - www.mlc.

ARA 1700

 
Posted by Picasa

ARA 1700

 
Posted by Picasa

ARA 1700

 
Posted by Picasa

ARA 1700

 
Posted by Picasa

Sub ARA 1700

 
Posted by Picasa

ARA 1700

 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa

LA VIDA. COSMOLOGIA.

AUTOR STEPHEN HAWKING

Es un libro que actualmente se esta editando. Es un punto de vista de una autoridad en la materia.Trata de los orígenes de la vida en el Universo.

Stephen Hawking

La Vida en el Universo



Artículo original en inglés
Traductor : Michael Artime


En esta charla, quisiera especular un poco, sobre el desarrollo de la vida en el universo, y en particular, sobre el desarrollo de la vida inteligente. Haré esto para incluir a la raza humana, aunque buena parte de su comportamiento a lo largo de la historia, ha sido bastante estúpido, y no precisamente calculado para ayudar a la supervivencia de las especies. Dos preguntas que discutiré son, '¿Cuál es la probabilidad de que la vida exista en otras partes del universo?' y, ' ¿Cómo podrá desarrollarse la vida en el futuro?'

Es cuestión de experiencia común, saber que las cosas tienden al desorden y al caos a medida que pasa el tiempo. Esta observación puede elevarse al estado de ley, la así llamada Segunda Ley de la Termodinámica. Esta dice que la cantidad total de desorden, o entropía, en el universo, aumenta siempre con el tiempo. Sin embargo, la ley se refiere solamente a la cantidad total de desorden. El orden en un cuerpo puede aumentar, a condición de que la cantidad de desorden a sus alrededor aumente en una cantidad mayor. Esto es lo que sucede con un ser vivo. Podríamos definir a la vida como: sistema ordenado que puede sostenerse contra la tendencia al desorden, y que puede reproducirse. Es decir, que puede formar sistemas ordenados similares, pero independientes. Para hacer estas cosas, el sistema debe poder convertir energía partiendo de una forma ordenada, (por ejemplo: alimento, luz del sol, o energía eléctrica), en energía desordenada, (en forma de calor). De esta manera, el sistema puede satisfacer el requisito de que la cantidad total de desorden aumente, mientras que, al mismo tiempo, aumenta el orden en sí mismo y en su descendencia. Un ser vivo tiene generalmente dos elementos: un sistema de instrucciones que le dicen al sistema cómo sostenerse y reproducirse, y un mecanismo para realizar estas instrucciones. En biología, estas dos piezas se llaman genes y metabolismo. Pero merece la pena acentuar que no es necesario una naturaleza biológica en ellos. Por ejemplo, un virus de ordenador es un programa que hará copias de sí mismo en la memoria de un ordenador, y se transferirá a otros ordenadores. Así, cabe en la definición de sistema vivo que yo he dado. Al igual que un virus biológico, ambos son formas algo degeneradas, porque solo contiene instrucciones o genes, y no tienen ningún metabolismo propio. En su lugar, reprograman el metabolismo del ordenador huésped o de la célula. Algunas personas se han cuestionado si deberíamos contar a los virus entre los seres vivos, ya que son parásitos, y no pueden existir independientemente de sus anfitriones. Pero entonces la mayor parte de las formas de vida, nosotros mismos incluidos, son parásitos, ya que se alimentan y dependen para su supervivencia de otras formas de vida. Creo que los virus de ordenador deberían considerarse también como vida. Quizás esto dijera algo sobre la naturaleza humana, ya que la única forma de vida que hemos creado hasta ahora, es puramente destructiva. Dicho de otro modo, creamos vida a nuestra imagen y semejanza. Volveré sobre las formas electrónicas de vida más adelante.

Lo qué normalmente conocemos como ' vida ' se basa en cadenas de átomos de carbono, enlazados con algunos otros átomos, tales como nitrógeno o fósforo. Podríamos especular que se puede obtener vida a partir de otra base química, por ejemplo el silicio, pero el carbono parece el caso más favorable, porque tiene la química más rica. Que los átomos de carbono existan al fin, con las características que tienen, requiere un fino ajuste de las constantes físicas, tales como la escala QCD (Nota del traductor: escala cromo-dinámica cuántica), la carga eléctrica, e incluso la dimensión espacio-tiempo. Si estas constantes tuvieran valores perceptiblemente distintos, o bien el núcleo del átomo de carbono se volvería inestable, o bien los electrones se colapsarían sobre el núcleo. A primera vista, parece notable que el universo esté ajustado tan finamente. Esta es quizá una evidencia, de que el universo fue diseñado especialmente para producir la raza humana. Sin embargo, hay que tener cuidado sobre tales discusiones, debido a lo que se conoce como el Principio Antrópico. Este se basa en la verdad, de por si evidente, de que si el universo no hubiera sido adecuado para la vida, nosotros no estaríamos ahora preguntándonos por qué está ajustado tan finamente. Se puede aplicar el Principio Antrópico, en sus versiones fuerte, o débil. Para el principio Antrópico fuerte, suponemos que hay muchos y diversos universos, cada uno con distintos valores en sus constantes físicas. En un número pequeño de ellos, estos valores permitirán la existencia de objetos tales como los átomos del carbono, que pueden actuar como los ladrillos para la construcción de sistemas vivos. Puesto que debemos vivir en uno de estos universos, no debemos sorprendernos de que las constantes físicas estén tan finamente ajustadas. Si no fuera así, no estaríamos aquí. La forma fuerte del Principio Antrópico no es muy satisfactoria. ¿Qué sentido operativo podemos dar a la existencia de esos otros universos? Y si están separados y al margen de nuestro propio universo, cómo puede afectarnos lo que suceda en ellos. En su lugar, adoptaré el que se conoce como Principio Antrópico débil. Es decir, tomaré los valores de las constantes físicas, según nos vienen dados. Pero veré qué conclusiones pueden extraerse, del hecho de que la vida exista en este planeta, en esta etapa de la historia del universo.

No había carbono, cuando el universo comenzó con el Big Bang, hace aproximadamente 15 mil millones de años. Era tan caliente, que toda la materia habría estado en forma de partículas, llamadas protones y neutrones. En un principio habría protones y neutrones en cantidades iguales. Sin embargo, como el universo se expandió, este se habría enfriado. Aproximadamente un minuto después del Big Bang, la temperatura habría caído a alrededor de mil millones de grados, equivalente a cientos de veces la temperatura del Sol. A esta temperatura, los neutrones comenzaron a descomponerse en más protones. Si solo hubiera sucedido esto, toda la materia en el universo habría terminado siendo como el elemento más simple, el hidrógeno, cuyo núcleo consiste en un solo protón. Sin embargo, algunos de los neutrones chocaron con los protones, y se fusionaron para formar el siguiente elemento más simple, el helio, cuyo núcleo consiste en dos protones y dos neutrones. Pero en el joven universo no se habría formado ningún elemento más pesado, como el carbono o el oxígeno. Es difícil imaginarse construir un sistema vivo, partiendo del hidrógeno y del helio, y de todos modos el universo primigenio seguía siendo demasiado caliente como para que los átomos se combinasen formando moléculas.

El universo habría continuado expandiéndose, y enfriándose. Pero algunas regiones habrían tenido densidades algo más altas que otras. La atracción gravitacional de la materia adicional en esas regiones, retrasaría su expansión, y eventualmente la pararía. En su lugar, esas regiones se colapsarían para formar galaxias y estrellas, hecho que empezó aproximadamente dos mil millones de años después del Big Bang. Algunas de aquellas estrellas tempranas habrían sido más masivas y calientes que nuestro Sol y habrían quemado el hidrógeno y helio original, transformándolo en elementos más pesados, tales como carbono, oxígeno, y hierro. Esto habría podido tomar solamente algunos cientos de millones de años. Después de eso, algunas de las estrellas habrían estallado como supernovas, y habrían dispersado los elementos pesados hacia el interior del espacio, formando la materia prima para próximas generaciones de estrellas.

Otras estrellas están demasiado lejos, como para que podamos ver directamente, si tienen planetas girando alrededor de ellas. Pero ciertas estrellas, llamadas pulsars, emiten pulsos regulares de ondas de radio. Observamos una leve variación en el índice de emisión de algunos pulsars, y esto se interpreta como un indicador de que están siendo perturbados, por la presencia de planetas del tamaño de la Tierra girando alrededor de ellas. Los planetas que giran alrededor de pulsars tienen pocas probabilidades de albergar vida, porque cualquier ser vivo habría muerto, en la explosión de la supernova que condujo a la estrella a convertirse en un pulsar. Pero, el hecho de que se haya observado que varios pulsars tienen planetas sugiere que una fracción razonable de las cientos de miles de millones de estrellas de nuestra galaxia pueden también tener planetas. Las condiciones planetarias necesarias para nuestra forma de vida pudieron por lo tanto, haber existido a partir de cuatro mil millones de años después del Big Bang.

Nuestro Sistema Solar se formó aproximadamente hace cuatro mil quinientos millones de años, cerca de diez mil millones de años después del Big Bang, a partir de gas contaminado con los restos de estrellas anteriores. La Tierra se formó en gran parte a partir de los elementos más pesados, incluyendo el carbono y el oxígeno. De algún modo, algunos de esos átomos llegaron a ordenarse en forma de moléculas de ADN. Este tiene la famosa forma de doble hélice, descubierta por Crick y Watson en un cuartucho situado en el Nuevo Museo, en Cambridge. Enlazando las dos cadenas en la hélice, hay pares de ácidos nucleicos. Hay cuatro tipos de ácidos nucleicos: adenina, citosina, guanina, y tiamina. Me temo que mi sintetizador del voz no es muy bueno, pronunciando sus nombres. Obviamente, no fue diseñado para biólogos moleculares. Una adenina en una cadena se empareja siempre con una tiamina en la otra cadena, y una guanina con un citosina. Así la secuencia de ácidos nucleicos en una cadena define una secuencia única y complementaria, en la otra cadena. Ambas cadenas pueden entonces separarse y cada una actúa como una plantilla para construir otras cadenas. De este modo las moléculas de ADN pueden reproducir la información genética, cifrada en sus secuencias de ácidos nucleicos. Algunas secciones de la secuencia se pueden también utilizar para elaborar proteínas y otros productos químicos, que pueden transportar las instrucciones codificadas en secuencia, y montar la materia prima para que el propio ADN se reproduzca.

No sabemos cómo aparecieron las primeras moléculas de ADN. La probabilidad de que una molécula de ADN se forme por fluctuaciones al azar es muy pequeña. Algunas personas, por lo tanto, han sugerido que la vida llegó a la Tierra desde alguna otra parte, y que hay semillas de vida flotando por los alrededores de la galaxia. Sin embargo, parece inverosímil que el ADN pudiera sobrevivir durante mucho tiempo a la radiación en el espacio. E incluso si pudiera, esto realmente no ayudaría a explicar el origen de la vida, porque el tiempo que necesitó el universo para lograr la formación del carbono es sólo un poco mas del doble que la edad de la Tierra.

La posibilidad de formación de algo parecido al ADN, que pudiera reproducirse, es extremadamente inverosímil. Sin embargo, en un universo con un número muy grande, o infinito, de estrellas, cabría esperar que esto ocurriera en algunos sistemas estelares, pero estarían tremendamente separados unos de otros. El hecho de que la vida llegara a suceder en la Tierra, no es sin embargo algo que nos sorprenda o inverosímil. Es solo una aplicación del Principio Antrópico Débil: si en su lugar, la vida hubiera aparecido en otro planeta, estaríamos preguntándonos por qué había ocurrido allí.

Si la aparición de vida en un planeta dado era muy inverosímil, se podía haber esperado que el proceso se alargase en el tiempo. Más exactamente, se podía haber esperado de la vida que apareciese justo a tiempo para la evolución subsiguiente de seres inteligentes, como nosotros antes del apagón, es decir antes del fin del proceso vital del Sol. Este es de cerca de diez mil millones de años, tras lo cual el Sol se expandirá y engullirá a la Tierra. Una forma inteligente de vida, podría haber dominado el viaje espacial, y podría por tanto ser capaz de escaparse a otra estrella. Pero de otro modo, la vida en la Tierra estaría condenada.

Hay evidencia fósil, de que existían ciertas formas de vida en la Tierra, hace aproximadamente tres mil quinientos millones de años. Esto pudo haber sido apenas 500 millones de años después de que la Tierra llegase a estabilizarse y a enfriarse lo bastante como para que la vida apareciera. Pero la vida habría podido tardar siete mil millones de años en desarrollarse, y todavía le sobraría tiempo para el desarrollo de seres que como nosotros, podrían preguntarse sobre el origen de la vida. Si la probabilidad del desarrollo de vida en un planeta dado, es muy pequeña, por qué sucedió en la Tierra, en tan solo 1/14 del tiempo total disponible.

La temprana aparición de vida en la Tierra sugiere que hay buenas opciones para la generación espontánea de vida, en condiciones convenientes. Quizás existieran ciertas formas más simple de organización, las cuales llegaron a construir el ADN. Una vez que apareció el ADN, este habría tenido tanto éxito, que puede ser que hubiera substituido totalmente las formas anteriores. No sabemos cuáles habrían sido estas formas anteriores. Una posibilidad es el ARN. Este es como el ADN, pero algo más simple, y sin la estructura de doble hélice. Las cortas longitudes del ARN, podían reproducirse como el ADN, y pudieron eventualmente transformarse en ADN. No se pueden crear ácidos nucleicos en el laboratorio a partir de material no-vivo, ni siquiera ARN. Pero transcurridos 500 millones de años, y contando con los océanos que cubrían la mayor parte de la Tierra, pudo haber una probabilidad razonable de que el ARN, se formase por casualidad.

Mientras el ADN se reprodujo, habrían sucedido errores al azar. Muchos de estos errores habrían sido dañinos, y habrían muerto. Otros habrían sido neutrales. Lo cual significa que no habrían afectado la función de los genes. Tales errores contribuirían a una deriva genética gradual, lo cual parece ocurrir en todas las poblaciones. Y otros errores habrían sido favorables para la supervivencia de la especie. Estos habrían sido escogidos por la selección natural Darwiniana. El proceso de la evolución biológica fue muy lento al principio. Llevó dos mil quinientos millones de años, desarrollar animales multicelulares a partir de las células más tempranas, y otros mil millones de años más el desarrollo, a través de peces y reptiles, de los mamíferos. Pero entonces la evolución pareció pegar un acelerón. En solo unos cientos de millones de años, los primeros mamíferos evolucionaron hasta nosotros. La razón es, que los peces ya contienen una gran parte de los órganos importantes de los humanos, y los mamíferos, prácticamente todos. Es decir, todo lo que se requería para el desarrollo humano a partir de los primeros mamíferos, como los lemurs, era un poco de afinación y ajuste.

Pero con la raza humana, la evolución alcanzó un nivel crítico, comparable en importancia con el desarrollo del ADN. Este hito fue el desarrollo del lenguaje, y particularmente el del lenguaje escrito. Ello significó que existía otro tipo de información que se podía pasar de generación en generación, además de la genética a través del ADN. No ha habido cambios perceptibles en al ADN humano, causados por la evolución biológica, en los diez mil años de historia registrada. Pero la cantidad de conocimiento manejado de generación en generación ha crecido enormemente. El ADN en los seres humanos contiene cerca de tres mil millones de ácidos nucleicos. Sin embargo, mucha de la información cifrada en esta secuencia, es redundante, o está inactiva. Por tanto la cantidad total de información útil en nuestros genes, es probablemente algo que ocupa unos cientos de millones de bits. Un bit de información es la respuesta a una pregunta de rango: si ó no. Por el contrario, una novela impresa en papel puede contener dos millones de bits de información. Así que un ser humano es el equivalente a 50 novelas románticas de Mills & Boon (Nota del traductor: Arlequín Mills & Boon es la empresa lider mundial en edición de novelas rosa) .Una biblioteca nacional importante puede contener cerca de cinco millones de libros, lo cual equivale a cerca de diez billones de bits. Por lo que la cantidad de información recogida en los libros, es cientos de miles de veces superior a la contenida en el ADN.

Aún más importante, es el hecho de que la información en los libros, puede cambiarse y actualizarse, mucho más rápidamente. Hemos tardado varios millones de años en desarrollarnos a partir de los monos. Durante ese tiempo, la información útil en nuestra ADN, ha cambiado probablemente en solo algunos millones de bits. De modo que el índice de evolución biológica en los seres humanos, es aproximadamente de un bit por año. Por contra, se publican cerca de 50.000 nuevos libros en lengua inglesa cada año, conteniendo del orden de cientos de miles de millones de bits de información. Por supuesto, la gran mayoría de esta información es basura, y de ninguna utilidad para cualquier forma de vida. Pero, incluso así, el ratio en el cual se puede agregar información útil es de millones, si no miles de millones, más alto que el del ADN.

Esto ha significado que hemos entrado en una nueva fase de la evolución. Al principio, la evolución procedió por obra de la selección natural, a través de mutaciones al azar. Esta fase Darwiniana, duró cerca de tres mil quinientos millones de años, y nos produjo a nosotros, seres que desarrollaron el lenguaje para intercambiar información. Pero en los últimos diez mil años, más o menos, hemos atravesado lo que podemos llamar, una fase de transmisión externa. Durante esta, el registro interno de información, manejado por las generaciones que tuvieron éxito reproductivo, no ha cambiado perceptiblemente al ADN. Pero el registro externo, mediante libros y otras formas duraderas de almacenaje, ha crecido enormemente. Algunas personas utilizarían el término, evolución, sólo para el material genético internamente transmitido, y se opondría a que dicho término fuese aplicado a la información manejada externamente. Pero creo que esto es también un problema de estrechez de miras. Somos más que simplemente nuestros genes. Podemos no ser más fuertes, o intrínsecamente más inteligentes, que nuestros antepasados los hombre de las cavernas. Pero lo que nos distingue de ellos, es el conocimiento que hemos acumulado durante los últimos diez mil años, y particularmente, durante los últimos trescientos. Pienso que es legítimo tomar una visión de conjunto, e incluir la información transmitida externamente, tanto como al ADN, en la evolución de la raza humana.

La escala de tiempo para la evolución de la información, durante el período de transmisión externo, es la de la tasa de acumulación. Esta fase solía ser de centenares, o aún de millares de años. Pero ahora este escala de tiempo se ha reducido a cerca de 50 años, o menos. Por otro lado, los cerebros con los cuales procesamos esa información se han desarrollado solamente en la escala de tiempo Darwiniana, de cientos de miles de años. Esto está comenzando a causar problemas. En el siglo XVIII, se decía que había un hombre que había leído cada uno de los libros escritos. Pero hoy en día, si usted leyera un libro al día, le llevaría cerca de 15.000 años leer todos los libros de una biblioteca nacional. Y para cuando acabase, muchos más libros habrían sido escritos.

Esto ha significado que nadie puede ser maestro en más que una pequeña esquina del conocimiento humano. La gente tiene que especializarse, en campos más y más reducidos. Esto es probable que sea una limitación importante en el futuro. No podemos continuar ciertamente, durante mucho tiempo, con el índice de crecimiento exponencial de conocimiento que hemos tenido en los últimos trescientos años. Una limitación y un peligro aún mayor para las generaciones futuras, es que todavía conservamos los instintos, y en particular, los impulsos agresivos, que teníamos en los días del hombre de las cavernas. Las agresiones, tales como la subyugación o el asesinato de otros hombres para tomar sus mujeres y su alimento, ha representado una ventaja definitiva para la supervivencia, hasta el presente. Pero ahora podría destruir a la raza humana entera, y a gran parte del resto de seres vivos de la Tierra. Una guerra nuclear, sigue representando el peligro más inmediato, pero existen otros, tales como el lanzamiento de virus rediseñados por ingeniería genética. O que el efecto invernadero llegue a tornarse inestable.

No queda tiempo, para esperar a que la evolución Darwiniana, nos haga más inteligentes, y mejore nuestra naturaleza. Pero ahora estamos entrando en una nueva fase, que podría ser llamada, evolución de auto-diseño, en la cual podremos cambiar y mejorar nuestra ADN. Existe un proyecto en marcha hoy en día para trazar la secuencia entera del ADN humano. (Nota del traductor: La charla es anterior a 1993, y el proyecto Genoma Humano empezó en 1990 y acabó en el 2000) Costará algunos miles de millones de dólares, pero eso es pecata minuta, para un proyecto de esta importancia. Una vez que hayamos leído el libro de la vida, comenzaremos a escribir las correcciones. Al principio, estos cambios estarán confinados a la reparación de defectos genéticos, como la fibrosis quística, y la distrofia muscular. Estas son controladas por genes sencillos, así que son bastante fáciles de identificar, y de corregir. Otras cualidades, tales como la inteligencia, son probablemente controladas por una gran cantidad de genes. Será mucho más difícil encontrarlos, y descubrir las relaciones entre ellos. Sin embargo, estoy seguro de que durante el próximo siglo, la gente descubrirá cómo modificar tanto la inteligencia, como los instintos agresivos.

Se aprobarán leyes contrarias a la ingeniería genética en seres humanos. Pero algunas personas no podrán resistirse a la tentación, de mejorar ciertas características humanas, tales como el tamaño de la memoria, la resistencia a las enfermedades, y el alargamiento de la vida. Una vez que aparezcan semejantes super-seres humanos, va a haber problemas políticos importantes, con el resto de seres humanos no mejorados, que no podrán competir. Probablemente, estos últimos morirán, o perderán importancia. En su lugar, habrá una raza de seres auto-diseñados, que irán mejorándose en un porcentaje cada vez mayor.

Si esta raza consigue reajustarse, hasta reducir o eliminar el riesgo de autodestrucción, probablemente se expandirá, y colonizará otros planetas y estrellas. Sin embargo, los viajes espaciales a través de grandes distancias, serán difíciles para las formas de vida con base química, como el ADN. El curso de vida natural para tales seres es muy breve, comparado con el tiempo del viaje. Según la teoría de la relatividad, nada puede viajar más rápidamente que luz. Por lo que el viaje de ida y vuelta a la estrella más cercana tomaría por lo menos 8 años, y al centro de la galaxia, alrededor de cien mil años. En la ciencia ficción, se superan estas dificultades, mediante deformaciones del espacio, o viajando a través de otras dimensiones. Pero no creo que esto sea posible jamás, no importa lo inteligentes que se vuelvan. En la teoría de la relatividad, si algo puede viajar más rápidamente que luz, también puede viajar hacia atrás en el tiempo. Esto nos conduciría a problemas con la gente que vuelve desde el futuro, para cambiar el pasado. Cabría esperar además, haber visto a una gran cantidad de turistas llegando desde el futuro, curiosos por observar nuestras costumbres pintorescas y pasadas de moda. Puede que sea posible utilizar la ingeniería genética, para hacer que la vida basada en ADN sobreviva indefinidamente, o por lo menos durante cien mil años. Pero hay una forma más sencilla, y que ya casi está dentro de nuestras posibilidades, que sería la de enviar máquinas. Estas se podrían diseñar para que durasen el tiempo suficiente para soportar el recorrido interestelar. Cuando llegasen a una nueva estrella, podrían aterrizar en un planeta conveniente, y extraer material de las minas para producir más máquinas, las cuales podrían ser enviadas hacia otras estrellas. Estas máquinas serían una nueva forma de vida, basada en componentes mecánicos y electrónicos, en lugar de macromoléculas. Podrían eventualmente sustituir a la vida basada en ADN, tal y como el ADN pudo haber sustituido a otras formas anteriores de vida.

Esta vida mecánica podría también ser auto-diseñada. Por ello, parece que el período de transmisión externa de la evolución, habría sido solo un corto interludio, entre la fase Darwiniana, y la fase (biológica o mecánica) de auto-diseño. Esto se muestra en el diagrama siguiente, que no es a escala, porque no hay forma alguna de representar un período de diez mil años en una escala de miles de millones de años.

Cuánto tiempo durará la fase de auto-diseño, es algo discutible. Puede ser inestable, y la vida podría destruirse a si misma, o llegar a un callejón sin salida. Si no lo hace, debería poder sobrevivir a la muerte del Sol, aproximadamente dentro de 5 mil millones de años, moviéndose a planetas situados alrededor de otras estrellas. La mayoría de las estrellas se habrán quemado dentro de otros 15 mil millones de años, más o menos, y el universo se acercará a un estado de completo desorden, según la Segunda Ley de la Termodinámica. Pero Freeman Dyson ha demostrado que, a pesar de esto, la vida podría adaptarse a la fuente siempre decreciente de energía ordenada, y por lo tanto podría, en principio, continuar su existencia para siempre.

¿Qué oportunidades tenemos de encontrar alguna forma de vida alienígena , mientras exploramos la galaxia?. Si la discusión sobre la escala de tiempo para la aparición de vida en la Tierra es correcta, debe haber muchas otras estrellas, cuyos planetas alberguen vida. Algunos de estos sistemas estelares podrían haberse formado cinco mil millones de años antes que la Tierra. Luego, ¿por qué la galaxia no está bullendo de formas de vida auto-diseñadas, mecánicas o biológicas? ¿Por qué la Tierra no ha sido visitada, o incluso colonizada?. No tendré en cuenta las sugerencias de que los OVNIS transportan a seres del espacio exterior. Creo que cualquier visita alienígena, sería mucho más obvia, y probablemente también, mucho más desagradable.

¿Cuál es la explicación del por qué no nos han visitado? Una posibilidad es que la discusión, sobre la aparición de vida en la Tierra, es incorrecta. Tal vez la probabilidad de que la vida aparezca espontáneamente es tan baja, que la Tierra es el único planeta en la galaxia, o en el universo observable, en el cual sucedió. Otra posibilidad es que exista una probabilidad razonable para que se formen sistemas de auto reproducción, como las células, pero que la mayoría de estas formas de vida no desarrollaron la inteligencia. Solemos creer en la vida inteligente, como una consecuencia inevitable de la evolución. Pero el Principio Antrópico debería advertirnos para que fuéramos cuidadosos con tales argumentos. Es más probable que la evolución sea un proceso al azar, donde la inteligencia es simplemente uno más entre una gran cantidad de resultados posibles. No está claro que la inteligencia tenga un valor de supervivencia a largo plazo. Las bacterias, y otros organismos unicelulares, seguirán viviendo, aún cuando el resto de la vida en la Tierra fuese barrida por nuestras acciones. Hay por tanto apoyos para la visión de que la inteligencia, es un desarrollo poco probable de la vida en la Tierra, desde la cronología de la evolución. Tomó un tiempo muy largo, dos mil quinientos millones de años, llegar a partir de las células hasta los seres multicelulares, los cuales son precursores necesarios para la inteligencia. Esta es una buena fracción del tiempo total disponible, antes de que el sol se destruya. Lo cual daría consistencia a la hipótesis, de que la probabilidad para que la vida inteligente se desarrolle, es baja. En ese caso, cabe esperar que encontremos muchas otras formas de vida en la galaxia, pero es poco probable encontrar vida inteligente. Otro modo, mediante el cual la vida podría fracasar en su intento de desarrollarse hasta un escenario de inteligencia, sería la de que un asteroide o cometa colisionase con el planeta. Acabamos de observar la colisión de un cometa, el Schumacher-Levi, con Júpiter. Esto produjo una serie de bolas de fuego enormes. Se cree que la colisión de un cuerpo algo más pequeño, con la Tierra, hace cerca de 70 millones de años, fue responsable de la extinción de los dinosaurios. Algunos pequeños mamíferos tempranos sobrevivieron, pero cualquier cosa tan grande como un humano habría sido aniquilada casi con toda certeza. Es difícil decir cuan a menudo ocurren tales colisiones, pero una conjetura razonable sobre este promedio, puede ser cada veinte millones de años. Si esta cifra es correcta, significaría que la vida inteligente en la tierra ha aparecido, únicamente gracias al hecho afortunado de que no ha habido colisiones importantes en los últimos 70 millones de años. Otros planetas en la galaxia, en los cuales la vida hubiera aparecido, pudieron no haber tenido un período libre de colisiones lo suficientemente largo como para desarrollar seres inteligentes.

Una tercera posibilidad es que durante la fase de transmisión externa haya una probabilidad razonable para que la vida se forme, y se desarrollen los seres inteligentes. Pero en ese punto, el sistema llega a ser inestable, y la vida inteligente se destruye. Esta sería una conclusión muy pesimista. Y en verdad deseo mucho que no sea así. Prefiero una cuarta posibilidad: la de que hay otras formas de vida inteligente ahí fuera, pero que se nos han pasado por alto. Existía un proyecto llamado SETI, la búsqueda de inteligencia extra-terrestre. Este implicaba la exploración de radiofrecuencias, para ver si podríamos captar señales emitidas por civilizaciones extraterrestres. Creo que merecía la pena apoyar este proyecto, aunque fue cancelado debido a una carencia de fondos. Pero deberíamos ser cuidadosos y no contestar, hasta que nos hayamos desarrollado un poquito más. Descubrir una civilización más avanzada, en nuestra actual etapa, puede ser un poco como cuando los habitantes originales de América se encontraron con Colón. Creo que estaban mejor antes de ello.

Eso es todo lo que tengo que decir. Gracias

ACTUALIDAD SOBRE SUBMARINOS RUSOS

Rusia probó un potente misil.
U L T I M O M O M E N T O
dia 29 de junio del 2007.

Rusia efectuó ayer una exitosa prueba de un misil balístico intercontinental BULAVA-M,con capacidad nuclear, que fué lanzado desde un submarino de la Flota del Norte y dio en el blanco previsto en la costa del Pacífico, a varios miles de kilometros de distancia.
El submarino nuclear Dmitri Donskoy efectuó el lanzamiento en posición sumergida, y "la cabeza del misil alcanzó el blanco programado en el plazo de tiempo previsto", según dijo a la Agencia"Interfax" el portavoz, Capitán de Navio Igor Digalo. Los misiles Bulava (SS-NX-30, según clasificación de la OTAN), de tres etapas y combustible solido, fueron diseñados como principal arma de las fuerzas estratégicas navales para las próximas décadas, pero sus tres anteriores ensayos habian fracasado.
La prueba del misil se produjo a sólo tres dias de una visita del Presidente ruso,Vladimir Putin, a los Estados Unidos, para una cumbre con su colega norteamericano George W. Bush, en medio de la polémica entre ambos países por los planes del Pentágono de instalar su escudo antimisiles cerca de las fronteras rusas en Europa del este.
Los Bulava diseño y producto del Instituto de Tecnología Térmica de moscú, tienen un alcance de 8000 kilómetros y pueden portar hasta diez ojivas nucleares de guiado autónomo.

yuan class

 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa
 
Posted by Picasa

kilo class

 
Posted by Picasa

kilo class navegando

 
Posted by Picasa

yuan class

 
Posted by Picasa

yuan class sub china

 
Posted by Picasa

yuan class

 
Posted by Picasa

class yuan en gradas

 
Posted by Picasa
 
Posted by Picasa