Historia del U-111 - Historia

Historia del U-111 - Historia

U-III

Antiguo submarino alemán: dp. 798 (surf.), 996 (subm.); 1. 235 ', b. 20Y` '; Dr. 11 4'- S. 16,4 k. (surf.), 8.4 k. (subm.); cpl. 36; una. 6 20 'tt., 1 4.1 ", 1 3.4"; cl. U lll)

U-l l l fue establecido a principios de 1917 en Vegesack, Alemania, por Bremer Vulcan bajo subcontrato con Germaniawerit en Kiel, lanzado el 5 de septiembre de 1917; completado por Germaniawerft en Kiel, y comisionado en la Armada Imperial Alemana el 30 de diciembre de 1917, con el Kapitanleutnant Beyersdorff al mando.

Después de completar su crucero Shakedown el 17 de marzo de 1918, fue enviada al IV U-Flottille, Hochseeflotte (Cuarta Flotilla Submarina, Flota de Alta Mar). Partió de Heligoland, una isla fortificada y base naval ubicada en el interior de la ensenada alemana, el 25 de marzo. Después del viaje de ida, que la llevó por las islas Orkney, al oeste de las islas Hébridas y al sur a lo largo de la costa occidental de Irlanda, llegó a su zona de patrulla cerca del canal de St. George durante la primera semana de abril. El día 7, avistó su primer objetivo, el vapor británico SS Boscastle de 2.346 toneladas. El submarino hizo un ataque de torpedo de superficie y hundió el barco con un solo torpedo. Boscastle, sin embargo, resultó ser su única víctima durante este primer crucero. Operó en las cercanías del canal de St. George durante otros cinco días sin encontrar más barcos y luego comenzó el viaje de regreso a Alemania. Después de retroceder a lo largo de la ruta que había tomado en el viaje de ida, U-lll regresó a Alemania en Emden el 24 de abril.

Un mes y tres días después, el submarino salió del estuario del Ems para comenzar su segundo crucero para atacar a los mercantes aliados. Desde el Ems, se dirigió a través del Mar del Norte. El 28 de mayo, su segundo día fuera, se topó con un pequeño vapor danés, el SS Dronning Margrethe de 393 toneladas. Declinándose a desperdiciar un valioso torpedo en un juego tan pequeño, el U-111 utilizó sus cañones de cubierta y hundió al danés con disparos. Desde el Mar del Norte, siguió sustancialmente la misma ruta que en su viaje inicial, llegando al Canal de San Jorge a principios de junio. Después de una patrulla fallida fuera de las entradas a St. George's y los canales de la Mancha, el submarino se retiró del área y volvió sobre su ruta de salida. El 22 de junio, a las afueras del Skaggerak, durante el último tramo de su viaje de regreso a casa, el submarino se encontró con un velero noruego cargado de madera para las minas inglesas. Una vez más, desdeñó el uso de un torpedo en favor de sus cañones de cubierta de 4.1 pulgadas y 3.4 pulgadas y acribilló al SS Rana de 272 toneladas con disparos. Dejando ese barco hundiéndose, el U-111 se dirigió hacia el sur a través del Mar del Norte hacia Wilhelmshaven, donde llegó el 26 de junio.

El tercer y último crucero de combate del U-111 resultó ser el menos exitoso de todos. Partió de Wilhelmshaven el 25 de agosto, transitó por el canal de Kiel y se dirigió hacia el norte a través del Mar Báltico alrededor de Dinamarca para desembocar en el Mar del Norte a través del Skaggerak. Desde allí, rodeó las Orcadas y las Hébridas y se dirigió hacia el sur a lo largo de la costa oeste de Irlanda. Luego, el submarino transitó por el canal de St. George y entró en el mar de Irlanda. El clima tormentoso y el mar embravecido la plagaron durante todo el crucero, y parece que no se encontró con ningún barco aliado. Siguió la misma ruta de regreso a Alemania y concluyó su última patrulla en Emden el 30 de septiembre.

Al parecer, U-l l l permaneció en el puerto de Emden hasta el cese de las hostilidades el 11 de noviembre. Nueve días después del armisticio, fue entregada a los aliados e internada en Harwich, Inglaterra. Cuando la Marina de los Estados Unidos expresó su interés en adquirir varios de los últimos tipos de submarinos, los Aliados asignaron seis barcos -U 117, U-140, UB-148, UB-88 UC-97 y U-164- para Estados Unidos con la condición de que sean destruidos en el plazo de un año a partir de la transferencia. En marzo de 1919, 12 oficiales y 120 soldados llegaron a Inglaterra para transportar los seis submarinos de regreso a los Estados Unidos. La tripulación asignada al U-164 encontró el submarino en condiciones tan atroces que fue imposible prepararlo para el viaje Victory Bond, la razón aparente por la que había sido adquirido. Por esa razón, las autoridades estadounidenses en Inglaterra acordaron asegurar la sustitución de U-lll por el canibalizado y ruinoso U 164. Poco después, fue puesta en servicio en la Armada de los Estados Unidos, la teniente comandante. Freeland A. Daubin al mando.

Como había sido sustituida por el U-184 en el último minuto, el U-lll no se hizo a la mar el 3 de abril con el resto de la Ex-Fuerza Expedicionaria de Submarinos Alemanes. Permaneció en Harwich cuatro días más mientras su tripulación realizaba un curso de familiarización intensivo y completaba las reparaciones de última hora. Finalmente, el 7 de abril, salió de Harwich y se detuvo en el Canal de la Mancha. En lugar de seguir la ruta tomada por los otros submarinos a través de las Azores y las Bermudas, el oficial al mando del U-111 trató de recuperar el tiempo que había perdido dirigiéndose directamente a través del Atlántico a través de una ruta circular. La niebla, los vendavales y el mar embravecido acosaron al submarino a lo largo del océano. En una ocasión estuvo a punto de hundirse cuando empezó a llenarse de agua a causa de un gallo de mar abierto. Sin embargo, uno de sus tripulantes se arrastró debajo de sus motores y se metió en el agua oscura y viscosa para encontrar y cerrar el aparato infractor. A pesar de la adversidad, el U-11 l logró su paso con éxito y atracó en Nueva York el 19 de abril, con tiempo suficiente para llevar a cabo sus tareas en la campaña Victory Bond.

En Nueva York, enjambres de turistas, reporteros y fotógrafos deambulaban por el submarino. Los técnicos de la Marina y los constructores navales civiles también vinieron para tratar de aprender todo lo que pudieran sobre la construcción de submarinos alemanes en el breve tiempo antes de que U-l l l partiera de Nueva York para visitar varios puertos en el circuito de bonos Victory. Para la campaña de bonos, las costas de los Estados Unidos y las principales vías fluviales del país se dividieron en cinco regiones diferentes, una para cada uno de los submarinos capturados, excepto el U-140. U-l l 1 visitó puertos a lo largo de la costa de Nueva Inglaterra y recibió visitantes junto con la campaña de ventas. El submarino completó su itinerario asignado a fines del verano de 1919. Después de eso, ella y el UB-148 fueron sometidos a una extensa serie de pruebas de rendimiento antes de ser depositados en el Navy Yard de Filadelfia. Durante el verano de 1921, regresó al mar para otra serie de pruebas, esta vez como objetivo de ensayos de artillería y bombardeos aéreos. Como resultado de esos experimentos, su maltrecho casco fue al fondo del océano en algún momento de julio de 1921.


Historia del U-111 - Historia

En un breve ensayo publicado a principios de esta semana, el secretario del Smithsonian, Lonnie G. Bunch, escribió que el reciente asesinato en Minnesota de George Floyd ha obligado al país a & # 8220 enfrentar la realidad de que, a pesar de los avances logrados en los últimos 50 años, seguimos siendo un nación dividida por la desigualdad y la división racial. & # 8221

En medio de la escalada de enfrentamientos entre manifestantes y policías, discutir la raza & # 8212desde la inequidad incrustada en las instituciones estadounidenses hasta los Estados Unidos & # 8217 larga y dolorosa historia de violencia contra los negros & # 8212 es un paso esencial para provocar un cambio social significativo. Para apoyar a aquellos que luchan por comenzar estas difíciles conversaciones, el Smithsonian & # 8217s National Museum of African American History and Culture lanzó recientemente un portal & # 8220Talking About Race & # 8221 con & # 8220tools and guía & # 8221 para educadores, padres, cuidadores y otras personas. comprometidos con la equidad.

& # 8220Talking About Race & # 8221 se une a un vasto tesoro de recursos de la Institución Smithsonian dedicada a comprender lo que Bunch describe como Estados Unidos & # 8217s & # 8220 pasado racial torturado. & # 8221 De Smithsonian artículos de revistas sobre esclavitud & # 8217s Trail of Tears y la inquietante resistencia del racismo científico al Museo Nacional de Historia Americana & # 8217s colección de recursos del Mes de la Historia Negra para educadores y un podcast de Sidedoor sobre la Masacre de Tulsa Race, estos 158 recursos están diseñados para fomentar una sociedad igualitaria, fomentar el compromiso con elecciones imparciales y promover el antirracismo en todos los aspectos de la vida. Los listados están en negrita y organizados por categoría.


Contenido

ASCII se desarrolló a partir del código telegráfico. Su primer uso comercial fue como código de teleimpresor de siete bits promovido por los servicios de datos de Bell. El trabajo en el estándar ASCII comenzó en mayo de 1961, con la primera reunión del subcomité X3.2 de la American Standards Association (ASA) (ahora American National Standards Institute o ANSI). La primera edición de la norma se publicó en 1963, [4] [5] se sometió a una revisión importante durante 1967, [6] [7] y experimentó su actualización más reciente durante 1986. [8] En comparación con los códigos telegráficos anteriores, el propuesto Tanto el código de campana como el ASCII se ordenaron para una clasificación más conveniente (es decir, la alfabetización) de las listas y se agregaron funciones para dispositivos distintos de los teleimpresores. [ cita necesaria ]

El uso del formato ASCII para el intercambio de redes se describió en 1969. [9] Ese documento se elevó formalmente a Estándar de Internet en 2015. [10]

Originalmente basado en el alfabeto inglés, ASCII codifica 128 caracteres especificados en enteros de siete bits como se muestra en la tabla ASCII anterior. [11] Noventa y cinco de los caracteres codificados son imprimibles: estos incluyen los dígitos 0 para 9, letras minusculas a para z, letras mayúsculas A para Zy símbolos de puntuación. Además, la especificación ASCII original incluía 33 códigos de control de no impresión que se originaron con máquinas de teletipo, la mayoría de ellos ahora están obsoletos, [12] aunque algunos todavía se usan comúnmente, como el retorno de carro, el avance de línea y los códigos de tabulación.

Por ejemplo, minúsculas I estaría representado en la codificación ASCII por el binario 1101001 = hexadecimal 69 (I es la novena letra) = decimal 105.

El Código Estándar Estadounidense para el Intercambio de Información (ASCII) fue desarrollado bajo los auspicios de un comité de la Asociación Estadounidense de Estándares (ASA), llamado comité X3, por su subcomité X3.2 (más tarde X3L2), y más tarde por el X3 de ese subcomité. 2.4 grupo de trabajo (ahora INCITS). La ASA se convirtió en el Instituto de Normas de los Estados Unidos de América (USASI) [3]: 211 y, en última instancia, en el Instituto Nacional de Normas de los Estados Unidos (ANSI).

Con los demás caracteres especiales y códigos de control completados, ASCII se publicó como ASA X3.4-1963, [5] [13] dejando 28 posiciones de código sin ningún significado asignado, reservadas para estandarización futura y un código de control sin asignar. [3]: 66, 245 Hubo cierto debate en ese momento sobre si debería haber más caracteres de control en lugar del alfabeto en minúsculas. [3]: 435 La indecisión no duró mucho: en mayo de 1963 el Grupo de Trabajo del CCITT sobre el Nuevo Alfabeto Telegráfico propuso asignar caracteres en minúscula a palos [a] [14] 6 y 7, [15] y la Organización Internacional de Normalización TC 97 SC 2 votaron durante octubre para incorporar el cambio en su proyecto de norma. [16] El grupo de trabajo X3.2.4 votó su aprobación para el cambio a ASCII en su reunión de mayo de 1963. [17] Ubicar las letras minúsculas en palos [a] [14] 6 y 7 causaron que los caracteres difirieran en el patrón de bits de las mayúsculas en un solo bit, lo que simplificó la coincidencia de caracteres sin distinción entre mayúsculas y minúsculas y la construcción de teclados e impresoras.

El comité X3 hizo otros cambios, incluidos otros caracteres nuevos (el corchete y los caracteres de la barra vertical), [18] renombrando algunos caracteres de control (SOM se convirtió en el inicio del encabezado (SOH)) y moviendo o quitando otros (RU fue eliminado). [3]: 247–248 ASCII se actualizó posteriormente como USAS X3.4-1967, [6] [19] luego USAS X3.4-1968, ANSI X3.4-1977 y, finalmente, ANSI X3.4-1986. [8] [20]

Revisiones del estándar ASCII:

  • ASA X3.4-1963 [3] [5] [19] [20]
  • ASA X3.4-1965 (aprobado, pero no publicado, sin embargo utilizado por las estaciones de pantalla IBM 2260 y amp 2265 y el control de pantalla IBM 2848) [3]: 423, 425–428, 435–439 [21] [19] [20]
  • USAS X3.4-1967 [3] [6] [20]
  • USAS X3.4-1968 [3] [20]
  • ANSI X3.4-1977 [20]
  • ANSI X3.4-1986 [8] [20]
  • ANSI X3.4-1986 (R1992)
  • ANSI X3.4-1986 (R1997)
  • INCITOS ANSI 4-1986 (R2002) [22]
  • INCITOS ANSI 4-1986 (R2007) [23]
  • (ANSI) INCITS 4-1986 [R2012] [24]
  • (ANSI) INCITS 4-1986 [R2017] [25]

En el estándar X3.15, el comité X3 también abordó cómo se debe transmitir ASCII (el bit menos significativo primero), [3]: 249-253 [26] y cómo se debe grabar en cinta perforada. Propusieron un estándar de 9 pistas para cinta magnética e intentaron lidiar con algunos formatos de tarjetas perforadas.

Ancho de bits

El subcomité X3.2 diseñó ASCII basado en los sistemas de codificación de teleimpresores anteriores. Como otras codificaciones de caracteres, ASCII especifica una correspondencia entre patrones de bits digitales y símbolos de caracteres (es decir, grafemas y caracteres de control). Esto permite que los dispositivos digitales se comuniquen entre sí y procesen, almacenen y comuniquen información orientada a los caracteres, como el lenguaje escrito. Antes de que se desarrollara ASCII, las codificaciones en uso incluían 26 caracteres alfabéticos, 10 dígitos numéricos y de 11 a 25 símbolos gráficos especiales. Incluir todos estos, y caracteres de control compatibles con el Comité Consultatif International Téléphonique et Télégraphique (CCITT) Norma del Alfabeto Telegráfico Internacional No. 2 (ITA2) de 1924, [27] [28] FIELDATA (1956 [ cita necesaria ]), y EBCDIC temprano (1963), se requerían más de 64 códigos para ASCII.

ITA2, a su vez, se basó en el código telegráfico de 5 bits que Émile Baudot inventó en 1870 y patentó en 1874. [28]

El comité debatió la posibilidad de una función de desplazamiento (como en ITA2), que permitiría representar más de 64 códigos mediante un código de seis bits. En un código desplazado, algunos códigos de caracteres determinan las opciones entre las opciones para los siguientes códigos de caracteres. Permite la codificación compacta, pero es menos confiable para la transmisión de datos, ya que un error en la transmisión del código de cambio generalmente hace que una gran parte de la transmisión sea ilegible. El comité de estándares decidió no cambiar, por lo que ASCII requería al menos un código de siete bits. [3]: 215, 236 §4

El comité consideró un código de ocho bits, ya que ocho bits (octetos) permitirían que dos patrones de cuatro bits codificaran eficientemente dos dígitos con decimal codificado en binario. Sin embargo, requeriría que toda la transmisión de datos envíe ocho bits cuando siete podrían ser suficientes. El comité votó a favor de utilizar un código de siete bits para minimizar los costos asociados con la transmisión de datos. Dado que la cinta perforada en ese momento podía grabar ocho bits en una posición, también permitía un bit de paridad para la verificación de errores si se deseaba. [3]: 217, 236 §5 Las máquinas de ocho bits (con octetos como tipo de datos nativos) que no usaban la verificación de paridad, por lo general, establecen el octavo bit en 0. [29]

Organización interna

El código en sí estaba modelado para que la mayoría de los códigos de control estuvieran juntos y todos los códigos gráficos estuvieran juntos, para facilitar la identificación. Los dos primeros llamados Palos ASCII [a] [14] (32 posiciones) se reservaron para los caracteres de control. [3]: 220, 236 8,9) El carácter de "espacio" tenía que aparecer antes de los gráficos para facilitar la clasificación, por lo que se convirtió en la posición 20maleficio [3]: 237 §10 por la misma razón, muchos signos especiales comúnmente utilizados como separadores se colocaron antes de los dígitos. El comité decidió que era importante admitir alfabetos de 64 caracteres en mayúsculas y eligió el patrón ASCII para que pudiera reducirse fácilmente a un conjunto de códigos gráficos utilizables de 64 caracteres, [3]: 228, 237 §14 como se hizo en el Código DEC SIXBIT (1963). Por lo tanto, las letras minúsculas no se intercalaron con mayúsculas. Para mantener las opciones disponibles para letras minúsculas y otros gráficos, los códigos especiales y numéricos se organizaron antes de las letras, y la letra A fue colocado en la posición 41maleficio para que coincida con el borrador de la norma británica correspondiente. [3]: 238 §18 Los dígitos del 0 al 9 tienen el prefijo 011, pero los 4 bits restantes corresponden a sus respectivos valores en binario, lo que hace que la conversión con decimal codificado en binario sea sencilla.

Muchos de los caracteres no alfanuméricos se colocaron para corresponder a su posición cambiada en las máquinas de escribir, una sutileza importante es que se basaron en mecánico máquinas de escribir, no eléctrico máquinas de escribir. [30] Las máquinas de escribir mecánicas siguieron el estándar establecido por Remington No. 2 (1878), la primera máquina de escribir con una tecla de mayúsculas, y los valores cambiados de 23456789- fueron "# $% _ & amp '() - se omitieron las primeras máquinas de escribir 0 y 1, utilizando O (letra mayúscula o) y l (letra minúscula L) en su lugar, ¡pero 1! y 0) los pares se convirtieron en estándar una vez que 0 y 1 se volvieron comunes. Por lo tanto, en ASCII! "# $% Se colocaron en el segundo palo, [a] [14] posiciones 1-5, correspondientes a los dígitos 1-5 en el palo adyacente. [A] [14] Los paréntesis no podrían corresponder para 9 y 0, sin embargo, debido a que el lugar correspondiente a 0 fue tomado por el carácter de espacio. Esto se resolvió quitando _ (guión bajo) de 6 y desplazando los caracteres restantes, que correspondían a muchas máquinas de escribir europeas que colocaban los paréntesis con 8 y 9. Esta discrepancia con las máquinas de escribir condujo a teclados de pares de bits, en particular el Teletype Model 33, que usaba el diseño desplazado a la izquierda correspondiente a ASCII, no a las máquinas de escribir mecánicas tradicionales. Las máquinas de escribir eléctricas, en particular la IBM Selectric (1961), utilizaron un diseño algo diferente que se ha convertido en estándar en las computadoras, siguiendo la IBM PC (1981), especialmente el Modelo M (1984), y por lo tanto, los valores de desplazamiento de los símbolos en los teclados modernos no se corresponden. tan cerca de la tabla ASCII como lo hacían los teclados anteriores. Los /? El par también data del n. ° 2, y los pares, & lt. & gt se usaron en algunos teclados (otros, incluido el n. ° 2, no se movieron, (coma) o. (punto) para que pudieran usarse en mayúsculas sin desviarse). Sin embargo, ASCII dividió el par: (que data del No. 2) y reorganizó los símbolos matemáticos (convenciones variadas, comúnmente - * = +) a: * + - =.

No se incluyeron algunos caracteres comunes, en particular ½¼ ¢, mientras que ^ `

se incluyeron como signos diacríticos para uso internacional y & lt & gt para uso matemático, junto con los caracteres de línea simple | (además de común /). los @ El símbolo no se usó en Europa continental y el comité esperaba que fuera reemplazado por un acentuado A en la variante francesa, por lo que @ fue colocado en la posición 40maleficio, justo antes de la letra A. [3]: 243

Los códigos de control que se consideraron esenciales para la transmisión de datos fueron el inicio del mensaje (SOM), el fin de la dirección (EOA), el fin del mensaje (EOM), el fin de la transmisión (EOT), "¿quién es usted?" (WRU), "¿lo eres?" (RU), un control de dispositivo reservado (DC0), inactivo sincrónico (SYNC) y reconocimiento (ACK). Estos se colocaron para maximizar la distancia de Hamming entre sus patrones de bits. [3]: 243–245

Orden de caracteres

El orden de código ASCII también se llama ASCIIbético pedido.[31] La recopilación de datos se realiza a veces en este orden en lugar del orden alfabético "estándar" (secuencia de clasificación). Las principales desviaciones en el orden ASCII son:

  • Todas las mayúsculas van antes de las minúsculas, por ejemplo, "Z" precede a "a"
  • Los dígitos y muchos signos de puntuación se anteponen a las letras.

Un orden intermedio convierte las letras mayúsculas a minúsculas antes de comparar los valores ASCII.

Personajes de control

ASCII reserva los primeros 32 códigos (números 0-31 decimal) para caracteres de control: códigos originalmente destinados a no representar información imprimible, sino a controlar dispositivos (como impresoras) que utilizan ASCII, o para proporcionar metainformación sobre datos. corrientes como las almacenadas en cinta magnética.

Por ejemplo, el carácter 10 representa la función de "avance de línea" (que hace que una impresora avance su papel) y el carácter 8 representa "retroceso". RFC 2822 se refiere a caracteres de control que no incluyen retorno de carro, salto de línea o espacio en blanco como caracteres de control que no son espacios en blanco. [32] A excepción de los caracteres de control que prescriben el formato elemental orientado a líneas, ASCII no define ningún mecanismo para describir la estructura o apariencia del texto dentro de un documento. Otros esquemas, como lenguajes de marcado, página de direcciones y diseño y formato de documentos.

El estándar ASCII original usaba solo frases descriptivas breves para cada carácter de control. La ambigüedad que esto causó fue a veces intencional, por ejemplo, cuando un carácter se usaría de manera ligeramente diferente en un enlace de terminal que en un flujo de datos, y a veces accidental, por ejemplo, con el significado de "eliminar".

Probablemente el dispositivo individual más influyente en la interpretación de estos caracteres fue el Teletype Model 33 ASR, que era un terminal de impresión con una opción de perforadora / lector de cinta de papel disponible. La cinta de papel fue un medio muy popular para el almacenamiento de programas a largo plazo hasta la década de 1980, menos costoso y, en cierto modo, menos frágil que la cinta magnética. En particular, las asignaciones de máquina del modelo 33 de teletipo para los códigos 17 (Control-Q, DC1, también conocido como XON), 19 (Control-S, DC3, también conocido como XOFF) y 127 (Delete) se convirtieron en estándares de facto. El Modelo 33 también se destacó por tomar la descripción de Control-G (código 7, BEL, que significa alertar audiblemente al operador) literalmente, ya que la unidad contenía una campana real que sonó cuando recibió un carácter BEL. Debido a que la parte superior de la tecla O también mostraba un símbolo de flecha izquierda (de ASCII-1963, que tenía este carácter en lugar de un guión bajo), un uso no conforme del código 15 (Control-O, Shift In) se interpretó como "eliminar el carácter anterior". también fue adoptado por muchos de los primeros sistemas de tiempo compartido, pero finalmente se descuidó.

Cuando un ASR teletipo 33 equipado con el lector automático de cinta de papel recibió un Control-S (XOFF, una abreviatura de transmisión desactivada), hizo que el lector de cinta dejara de recibir Control-Q (XON, "transmisión activada") provocó que el lector de cinta Resumir. Esta técnica fue adoptada por varios sistemas operativos de computadoras tempranos como una señal de "apretón de manos" que advierte al remitente que detenga la transmisión debido a un desbordamiento inminente que persiste hasta el día de hoy en muchos sistemas como una técnica de control de salida manual. En algunos sistemas, Control-S conserva su significado, pero Control-Q se reemplaza por un segundo Control-S para reanudar la salida. El 33 ASR también podría configurarse para emplear Control-R (DC2) y Control-T (DC4) para iniciar y detener la perforación de la cinta en algunas unidades equipadas con esta función, las letras de los caracteres de control correspondientes en la tecla encima de la letra eran TAPE y CINTA respectivamente. [33]

Eliminar y amplificar retroceso

El teletipo no podía mover la cabeza hacia atrás, por lo que no puso una tecla en el teclado para enviar un BS (retroceso). En su lugar, había una tecla marcada RUB OUT que envió el código 127 (DEL). El propósito de esta clave era borrar los errores en una cinta de papel mecanografiada a mano: el operador tenía que presionar un botón en el perforador de la cinta para hacer una copia de seguridad, luego escribir el borrado, que perforaba todos los agujeros y reemplazaba el error con un carácter que estaba destinado a ser ignorado. [34] Los teletipos se usaban comúnmente para las computadoras menos costosas de Digital Equipment Corporation, por lo que estos sistemas tenían que usar la clave disponible y, por lo tanto, el código DEL para borrar el carácter anterior. [35] [36] Debido a esto, los terminales de video DEC (por defecto) enviaron el código DEL para la tecla marcada como "Retroceso" mientras que la tecla marcada "Eliminar" envió una secuencia de escape, mientras que muchos otros terminales enviaron BS para la tecla de retroceso. . El controlador de terminal Unix solo podía usar un código para borrar el carácter anterior, esto podría configurarse en BS o DEL, pero no ambos, lo que resultó en un largo período de molestias donde los usuarios tuvieron que corregirlo dependiendo de qué terminal estaban usando (shells que permiten la edición de líneas, como ksh, bash y zsh, entienden ambos). La suposición de que ninguna tecla envió un BS hizo que Control + H se usara para otros propósitos, como el comando de prefijo "ayuda" en GNU Emacs. [37]

Escapar

A muchos más códigos de control se les han dado significados bastante diferentes de los originales. El carácter de "escape" (ESC, código 27), por ejemplo, originalmente estaba destinado a permitir el envío de otros caracteres de control como literales en lugar de invocar su significado. Este es el mismo significado de "escape" que se encuentra en codificaciones de URL, cadenas de lenguaje C y otros sistemas donde ciertos caracteres tienen un significado reservado. Con el tiempo, este significado ha sido adoptado y eventualmente cambiado. En el uso moderno, un ESC enviado a la terminal generalmente indica el inicio de una secuencia de comando generalmente en la forma de un llamado "código de escape ANSI" (o, más propiamente, un "Introductor de secuencia de control") de ECMA-48 ( 1972) y sus sucesores, comenzando con ESC seguido de un carácter "[" (corchete izquierdo). Un ESC enviado desde el terminal se usa con mayor frecuencia como un carácter fuera de banda que se usa para terminar una operación, como en los editores de texto TECO y vi. En la interfaz gráfica de usuario (GUI) y los sistemas de ventanas, ESC generalmente hace que una aplicación anule su operación actual o salga (finalice) por completo.

Fin de la línea

La ambigüedad inherente de muchos caracteres de control, combinada con su uso histórico, creó problemas al transferir archivos de "texto sin formato" entre sistemas. El mejor ejemplo de esto es el problema de la nueva línea en varios sistemas operativos. Las máquinas de teletipo requerían que una línea de texto terminara con "Retorno de carro" (que mueve el cabezal de impresión al principio de la línea) y "Avance de línea" (que avanza el papel una línea sin mover el cabezal de impresión). El nombre "Retorno de carro" proviene del hecho de que en una máquina de escribir manual el carro que sostiene el papel se mueve mientras que la posición donde las barras de tipo golpean la cinta permanece estacionaria. Todo el carro tuvo que ser empujado (devuelto) hacia la derecha para colocar el margen izquierdo del papel en la siguiente línea.

Los sistemas operativos DEC (OS / 8, RT-11, RSX-11, RSTS, TOPS-10, etc.) usaban ambos caracteres para marcar el final de una línea para que el dispositivo de la consola (originalmente máquinas de teletipo) funcionara. Cuando aparecieron los llamados "TTY de vidrio" (más tarde llamados CRT o terminales), la convención estaba tan bien establecida que la compatibilidad con versiones anteriores hizo necesario continuar la convención. Cuando Gary Kildall creó CP / M, se inspiró en algunas convenciones de interfaz de línea de comandos utilizadas en el RT-11 de DEC. Hasta la introducción de PC DOS en 1981, IBM no tuvo nada que ver con esto porque sus sistemas operativos de la década de 1970 usaban EBCDIC en lugar de ASCII y estaban orientados hacia la entrada de tarjetas perforadas y la salida de impresoras de línea en las que el concepto de retorno de carro no tenía sentido. El PC DOS de IBM (también comercializado como MS-DOS por Microsoft) heredó la convención en virtud de estar vagamente basado en CP / M, [38] y Windows lo heredó de MS-DOS.

Desafortunadamente, requerir dos caracteres para marcar el final de una línea introduce una complejidad innecesaria y preguntas sobre cómo interpretar cada carácter cuando se encuentra solo. Para simplificar las cosas, los flujos de datos de texto plano, incluidos los archivos, en Multics [39] utilizaban el salto de línea (LF) solo como terminador de línea. Los sistemas Unix y similares a Unix, y los sistemas Amiga, adoptaron esta convención de Multics. El sistema operativo Macintosh original, Apple DOS y ProDOS, por otro lado, usaban el retorno de carro (CR) solo como terminador de línea, sin embargo, dado que Apple reemplazó estos sistemas operativos con el sistema operativo macOS basado en Unix, ahora usan el avance de línea ( LF) también. El Radio Shack TRS-80 también usó un CR solitario para terminar líneas.

Las computadoras conectadas a ARPANET incluían máquinas que ejecutaban sistemas operativos como TOPS-10 y TENEX que usaban terminaciones de línea CR-LF, máquinas que ejecutaban sistemas operativos como Multics que usaban terminaciones de línea LF y máquinas que ejecutaban sistemas operativos como OS / 360 que representaban líneas como un recuento de caracteres seguido de los caracteres de la línea y que usaba EBCDIC en lugar de ASCII. El protocolo Telnet definió un "Terminal virtual de red" ASCII (NVT), de modo que las conexiones entre hosts con diferentes convenciones de finalización de línea y juegos de caracteres pudieran ser compatibles mediante la transmisión de un formato de texto estándar a través de la red. Telnet usaba ASCII junto con terminaciones de línea CR-LF, y el software que usaba otras convenciones se traduciría entre las convenciones locales y NVT. [40] El protocolo de transferencia de archivos adoptó el protocolo Telnet, incluido el uso de la terminal virtual de red, para usar al transmitir comandos y transferir datos en el modo ASCII predeterminado. [41] [42] Esto añade complejidad a las implementaciones de esos protocolos, y a otros protocolos de red, como los que se utilizan para correo electrónico y la World Wide Web, en sistemas que no utilizan la convención de finalización de línea CR-LF de NVT. [43] [44]

Fin de archivo / transmisión

El monitor PDP-6, [35] y su sucesor PDP-10, TOPS-10, [36] utilizaron Control-Z (SUB) como indicación de fin de archivo para la entrada desde un terminal. Algunos sistemas operativos como CP / M rastreaban la longitud del archivo solo en unidades de bloques de disco y usaban Control-Z para marcar el final del texto real en el archivo. [45] Por estas razones, EOF, o fin de archivo, se usó coloquial y convencionalmente como un acrónimo de tres letras para Control-Z en lugar de SUBstitute. El código de fin de texto (ETX), también conocido como Control-C, era inapropiado por una variedad de razones, mientras que usar Z como código de control para terminar un archivo es análogo a terminar el alfabeto y sirve como una forma muy conveniente ayuda mnemotécnica. Una convención históricamente común y aún prevalente usa la convención de código ETX para interrumpir y detener un programa a través de un flujo de datos de entrada, generalmente desde un teclado.

En la biblioteca C y las convenciones de Unix, el carácter nulo se usa para terminar cadenas de texto, tales cadenas terminadas en nulo se pueden conocer en abreviatura como ASCIZ o ASCIIZ, donde aquí Z significa "cero".

Tabla de códigos de control

Binario oct dic Maleficio Abreviatura [B] [C] [D] Nombre (1967)
1963 1965 1967
000 0000 000 0 00 NULO NUL ^@ Nulo
000 0001 001 1 01 SOM SOL ^ A Inicio de rumbo
000 0010 002 2 02 EOA STX ^ B Inicio del texto
000 0011 003 3 03 MOE ETX ^ C Fin del texto
000 0100 004 4 04 EOT ^ D Fin de transmisión
000 0101 005 5 05 WRU ENQ ^ E Consulta
000 0110 006 6 06 RU ACK ^ F Reconocimiento
000 0111 007 7 07 CAMPANA BEL ^ G a campana
000 1000 010 8 08 FE0 BS ^ H B Retroceso [e] [f]
000 1001 011 9 09 HT / SK HT ^ Yo t Lengüeta horizontal [g]
000 1010 012 10 0A LF ^ J orte Linea de alimentación
000 1011 013 11 0B VTAB Vermont ^ K v Ficha vertical
000 1100 014 12 0C FF ^ L F Alimentación de formulario
000 1101 015 13 0D CR ^ M r Retorno de carro [h]
000 1110 016 14 0E ASI QUE ^ N Desplazar fuera
000 1111 017 15 0F SI ^ O Desplazar en
001 0000 020 16 10 DC0 DLE ^ P Escape de enlace de datos
001 0001 021 17 11 DC1 ^ Q Control de dispositivo 1 (a menudo XON)
001 0010 022 18 12 DC2 ^ R Control de dispositivo 2
001 0011 023 19 13 DC3 ^ S Control de dispositivo 3 (a menudo XOFF)
001 0100 024 20 14 DC4 ^ T Control de dispositivo 4
001 0101 025 21 15 ERRAR NAK ^ U Reconocimiento negativo
001 0110 026 22 16 SINCRONIZAR SYN ^ V Inactivo sincrónico
001 0111 027 23 17 LEM ETB ^ W Fin del bloque de transmisión
001 1000 030 24 18 S0 PUEDEN ^ X Cancelar
001 1001 031 25 19 S1 EM ^ Y Fin del medio
001 1010 032 26 1A S2 SS SUB ^ Z Sustituir
001 1011 033 27 1B S3 ESC ^[ e [i] Escape [j]
001 1100 034 28 1C S4 FS ^ Separador de archivos
001 1101 035 29 1D S5 GS ^] Separador de grupos
001 1110 036 30 1E S6 RS ^^ [k] Separador de registros
001 1111 037 31 1F S7 nosotros ^_ Separador de unidades
111 1111 177 127 7F DEL ^? Eliminar [l] [f]

El equipo especializado podría utilizar otras representaciones, por ejemplo, gráficos ISO 2047 o números hexadecimales.

Caracteres imprimibles

Códigos 20maleficio a 7Emaleficio, conocidos como caracteres imprimibles, representan letras, dígitos, signos de puntuación y algunos símbolos diversos. Hay 95 caracteres imprimibles en total. [metro]

Codigo 20maleficio, el carácter de "espacio", denota el espacio entre palabras, como lo produce la barra espaciadora de un teclado. Dado que el carácter de espacio se considera un gráfico invisible (en lugar de un carácter de control) [3]: 223 [46], se enumera en la tabla siguiente en lugar de en la sección anterior.

Código 7Fmaleficio corresponde al carácter de control no imprimible "eliminar" (DEL) y, por lo tanto, se omite en este cuadro; se trata en el cuadro de la sección anterior. Las versiones anteriores de ASCII usaban la flecha hacia arriba en lugar del signo de intercalación (5Emaleficio) y la flecha izquierda en lugar del guión bajo (5Fmaleficio). [5] [47]

Conjunto de caracteres

Los puntos que representaron un carácter diferente en versiones anteriores (la versión de 1963 o el borrador de 1965) se muestran en recuadros. Los puntos asignados desde la versión de 1963, pero que por lo demás no han cambiado, se muestran ligeramente sombreados en relación con los colores de las leyendas.

ASCII se utilizó por primera vez comercialmente durante 1963 como un código de teletipo de siete bits para la red TWX (TeletypeWriter eXchange) de American Telephone & amp Telegraph. TWX utilizó originalmente el ITA2 de cinco bits anterior, que también fue utilizado por el sistema de teleimpresor Telex de la competencia. Bob Bemer introdujo características como la secuencia de escape. [4] Su colega británico Hugh McGregor Ross ayudó a popularizar este trabajo, según Bemer, "tanto que el código que se convertiría en ASCII se llamó primero Código Bemer-Ross en Europa ". [48] Debido a su extenso trabajo en ASCII, Bemer ha sido llamado" el padre de ASCII ". [49]

El 11 de marzo de 1968, el presidente de los Estados Unidos, Lyndon B. Johnson, ordenó que todas las computadoras compradas por el gobierno federal de los Estados Unidos admitieran ASCII, declarando: [50] [51] [52]

También he aprobado recomendaciones del Secretario de Comercio [Luther H. Hodges] con respecto a los estándares para registrar el Código Estándar para el Intercambio de Información en cintas magnéticas y cintas de papel cuando se utilizan en operaciones informáticas. Todas las computadoras y configuraciones de equipos relacionados que se incluyan en el inventario del gobierno federal a partir del 1 de julio de 1969 deben tener la capacidad de utilizar el Código estándar para el intercambio de información y los formatos prescritos por los estándares de cinta magnética y cinta de papel cuando se utilicen estos medios.

ASCII fue la codificación de caracteres más común en la World Wide Web hasta diciembre de 2007, cuando la codificación UTF-8 la superó. UTF-8 es compatible con ASCII. [53] [54] [55]

A medida que la tecnología informática se extendió por todo el mundo, diferentes organismos de normalización y corporaciones desarrollaron muchas variaciones de ASCII para facilitar la expresión de idiomas distintos del inglés que utilizaban alfabetos basados ​​en romanos. Se podrían clasificar algunas de estas variaciones como "extensiones ASCII", aunque algunos usan mal ese término para representar todas las variantes, incluidas aquellas que no conservan el mapa de caracteres ASCII en el rango de 7 bits. Además, las extensiones ASCII también se han etiquetado incorrectamente como ASCII.

Códigos de 7 bits

Desde el principio de su desarrollo, [56] ASCII estaba destinado a ser solo una de varias variantes nacionales de un estándar de código de caracteres internacional.

Otros organismos internacionales de normalización han ratificado codificaciones de caracteres como ISO 646 (1967) que son idénticas o casi idénticas a ASCII, con extensiones para caracteres fuera del alfabeto inglés y símbolos utilizados fuera de los Estados Unidos, como el símbolo de la libra esterlina del Reino Unido. (£). Casi todos los países necesitaban una versión adaptada de ASCII, ya que ASCII se adaptaba solo a las necesidades de EE. UU. Y algunos otros países. Por ejemplo, Canadá tenía su propia versión que admitía caracteres franceses.

Muchos otros países desarrollaron variantes de ASCII para incluir letras no inglesas (por ejemplo, é, ñ, ß, Ł), símbolos de moneda (por ejemplo, £, ¥), etc. Véase también YUSCII (Yugoslavia).

Compartiría la mayoría de los caracteres en común, pero asignaría otros caracteres útiles localmente a varios puntos de código reservados para "uso nacional". Sin embargo, los cuatro años que transcurrieron entre la publicación de ASCII-1963 y la primera aceptación por parte de ISO de una recomendación internacional durante 1967 [57] hicieron que las elecciones de ASCII para los caracteres de uso nacional parecieran ser estándares de facto para el mundo, causando confusión e incompatibilidad. una vez que otros países empezaron a hacer sus propias asignaciones a estos puntos de código.

ISO / IEC 646, como ASCII, es un conjunto de caracteres de 7 bits. No pone a disposición ningún código adicional, por lo que los mismos puntos de código codificaron diferentes caracteres en diferentes países. Los códigos de escape se definieron para indicar qué variante nacional se aplicaba a un fragmento de texto, pero rara vez se usaban, por lo que a menudo era imposible saber con qué variante trabajar y, por lo tanto, qué carácter representaba un código y, en general, el texto. De todos modos, los sistemas de procesamiento solo podían hacer frente a una variante.

Debido a que los caracteres de corchete y llave de ASCII se asignaron a puntos de código de "uso nacional" que se usaron para letras acentuadas en otras variantes nacionales de ISO / IEC 646, un programador alemán, francés o sueco, etc., que utilizó su variante nacional de ISO / IEC 646, en lugar de ASCII, tuvo que escribir, y por lo tanto leer, algo como

Se crearon trígrafos en C para resolver este problema para ANSI C, aunque su introducción tardía y su implementación inconsistente en los compiladores limitaron su uso. Muchos programadores mantuvieron sus computadoras en US-ASCII, por lo que el texto sin formato en sueco, alemán, etc. (por ejemplo, en correo electrónico o Usenet) contenía "<,>" y variantes similares en medio de las palabras, algo que esos programadores obtuvieron. solía hacerlo. Por ejemplo, un programador sueco que envía un correo a otro programador preguntándole si debería ir a almorzar, podría obtener "N sar" como respuesta, que debería ser "Nä jag har smörgåsar", que significa "No, tengo bocadillos ".

En Japón y Corea, aún a partir de la década de 2020, se usa una variación de ASCII, en la que la barra invertida (5C hex) se representa como ¥ (un signo de Yen, en Japón) o ₩ (un signo de Won, en Corea). Esto significa que, por ejemplo, la ruta del archivo C: Users Smith se muestra como C: ¥ Users ¥ Smith (en Japón) o C: ₩ Users ₩ Smith (en Corea).

Códigos de 8 bits

Eventualmente, cuando las computadoras de 8, 16 y 32 bits (y luego de 64 bits) comenzaron a reemplazar las computadoras de 12, 18 y 36 bits como norma, se hizo común usar un byte de 8 bits para almacenar cada carácter en la memoria, proporcionando una oportunidad para parientes extendidos de 8 bits de ASCII. En la mayoría de los casos, estos se desarrollaron como verdaderas extensiones de ASCII, dejando intacta la asignación de caracteres original, pero agregando definiciones de caracteres adicionales después de los primeros 128 (es decir, 7 bits) caracteres.

Las codificaciones incluyen ISCII (India), VISCII (Vietnam). Aunque estas codificaciones a veces se denominan ASCII, el verdadero ASCII se define estrictamente solo por el estándar ANSI.

La mayoría de los primeros sistemas informáticos domésticos desarrollaron sus propios conjuntos de caracteres de 8 bits que contenían dibujos de líneas y glifos de juegos y, a menudo, rellenaban algunos o todos los caracteres de control del 0 al 31 con más gráficos. Las computadoras Kaypro CP / M usaban los 128 caracteres "superiores" para el alfabeto griego.

El código PETSCII que Commodore International usó para sus sistemas de 8 bits es probablemente único entre los códigos posteriores a 1970 porque se basa en ASCII-1963, en lugar del ASCII-1967 más común, como el que se encuentra en la computadora ZX Spectrum. Las computadoras Atari de 8 bits y las computadoras Galaksija también usaban variantes ASCII.

El IBM PC definió la página de códigos 437, que reemplazó los caracteres de control con símbolos gráficos como caritas sonrientes y asignó caracteres gráficos adicionales a las 128 posiciones superiores. Los sistemas operativos como DOS admitían estas páginas de códigos y los fabricantes de PC IBM las admitían en hardware. Digital Equipment Corporation desarrolló el conjunto de caracteres multinacional (DEC-MCS) para su uso en el popular terminal VT220 como una de las primeras extensiones diseñadas más para idiomas internacionales que para gráficos de bloques. Macintosh definió Mac OS Roman y Postscript también definió un conjunto, ambos contenían letras internacionales y signos de puntuación tipográficos en lugar de gráficos, más como conjuntos de caracteres modernos.

El estándar ISO / IEC 8859 (derivado del DEC-MCS) finalmente proporcionó un estándar que la mayoría de los sistemas copiaron (al menos con la misma precisión que copiaron ASCII, pero con muchas sustituciones). Una extensión adicional popular diseñada por Microsoft, Windows-1252 (a menudo mal etiquetada como ISO-8859-1), agregó los signos de puntuación tipográficos necesarios para la impresión de texto tradicional. ISO-8859-1, Windows-1252 y el ASCII original de 7 bits fueron las codificaciones de caracteres más comunes hasta 2008, cuando UTF-8 se volvió más común. [54]

ISO / IEC 4873 introdujo 32 códigos de control adicionales definidos en el rango hexadecimal 80–9F, como parte de la extensión de la codificación ASCII de 7 bits para convertirse en un sistema de 8 bits. [58]

Unicode

Unicode y el conjunto de caracteres universal (UCS) ISO / IEC 10646 tienen una gama mucho más amplia de caracteres y sus diversas formas de codificación han comenzado a suplantar rápidamente a ISO / IEC 8859 y ASCII en muchos entornos. Si bien ASCII está limitado a 128 caracteres, Unicode y UCS admiten más caracteres al separar los conceptos de identificación única (utilizando números naturales llamados puntos de código) y codificación (a formatos binarios de 8, 16 o 32 bits, denominados UTF-8, UTF-16 y UTF-32).

ASCII se incorporó al juego de caracteres Unicode (1991) como los primeros 128 símbolos, por lo que los caracteres ASCII de 7 bits tienen los mismos códigos numéricos en ambos juegos. Esto permite que UTF-8 sea compatible con versiones anteriores de ASCII de 7 bits, ya que un archivo UTF-8 que contiene solo caracteres ASCII es idéntico a un archivo ASCII que contiene la misma secuencia de caracteres. Aún más importante, la compatibilidad hacia adelante está garantizada como software que reconoce solo caracteres ASCII de 7 bits como especiales y no altera los bytes con el conjunto de bits más alto (como se hace a menudo para admitir extensiones ASCII de 8 bits como ISO-8859-1) conservará los datos UTF-8 sin cambios. [59]


Por Thomas Wildenberg

Un equipo de armas practica en una montura cuádruple de 1,1 pulgadas en el Dam Neck Training Center de Virginia. Tenga en cuenta las revistas grandes y engorrosas. (Archivos Nacionales)

El cañón de máquina cuádruple de 1,1 pulgadas, conocido cariñosamente como el "Piano de Chicago", fue el primer cañón antiaéreo de mediano alcance adoptado por la Marina de los EE. UU. 1 Diseñado y construido por la Naval Gun Factory durante la Gran Depresión, fue diseñado específicamente para combatir bombarderos en picado. El arma de cuatro cañones disparó un proyectil explosivo de medio kilo que se fusionó para explotar al entrar en contacto con la fina tela dopada que cubría las alas de los biplanos de la época. La metralla resultante atravesaría el ala y provocaría la pérdida de control.

La necesidad de proporcionar a la Flota un nuevo cañón antiaéreo se hizo evidente a fines de la década de 1920 en respuesta a la creciente amenaza que representaban los bombardeos en picado. A principios de 1929, varios oficiales superiores estaban cada vez más preocupados por esta nueva forma de ataque. El problema de la defensa contra el bombardero en picado fue articulado por el director de Entrenamiento de Flotas, el contralmirante Luke McNamee. “Incluso si el fuego defensivo comienza en el instante más temprano posible”, escribió en un memorando dirigido al jefe de Operaciones Navales, “. . . sólo unos 30 segundos de tiempos de disparo reales están disponibles para subir a los aviones atacantes y dañarlos lo suficiente como para evitar que se complete el ataque ". Ninguno de los cañones antiaéreos disponibles en ese momento —la ametralladora calibre .50, el cañón antiaéreo de 3 pulgadas y el cañón de doble propósito de 5 pulgadas / calibre 25— fue diseñado para este propósito.

Una propuesta presentada por la Oficina de Artillería (BuOrd), que había estado estudiando varias armas para contrarrestar el bombardero en picado, requería un cañón de 1.1 pulgadas de múltiples cañones que disparara un proyectil explosivo equipado con una mecha supersensible que detonaría al contacto. El almirante McNamee recomendó que se impulsara el desarrollo de esta arma y que "se perfeccionara y entregara al servicio un arma de este tipo cuando fuera posible".

Aunque BuOrd reconoció la necesidad urgente de una nueva arma para combatir los bombarderos en picado, la opinión varió dentro de la oficina en cuanto a qué calibre de munición sería el más efectivo. Por lo tanto, la oficina comenzó a realizar pruebas de disparo cabeza a cabeza utilizando municiones de calibre .30, calibre .50 y 1,1 pulgadas contra aviones obsoletos montados estáticamente en el Campo de Pruebas Naval en Dahlgren, Virginia. Los resultados mostraron que, si bien las balas de calibre .30 eran capaces de inutilizar un motor, serían ineficaces para evitar que un bombardero en picado impulsara su ataque una vez que había comenzado. El calibre .50 tuvo una excelente presentación, en muchos casos sus proyectiles pesados ​​penetraron a través del bloque del motor hasta la posición del piloto, pero no era probable que el impacto de una bala de calibre .50 causara la pérdida de control del avión a menos que el piloto Fue herido.

La pérdida total de control fue el único daño que valía la pena considerar, ya que era el único impacto que evitaría que un bombardero en picado completara su ataque. Por lo tanto, la oficina favoreció el cañón de 1,1 pulgadas y su proyectil explosivo, que probablemente causaría la pérdida de control si golpeaba el ala de un avión. Sin embargo, el volumen de fuego del cañón de 1,1 pulgadas era considerablemente menor que el del calibre .50 para tener el mismo volumen, el de 1,1 pulgadas tendría que instalarse en una montura cuádruple. Una montura así sería mucho más pesada que la del calibre .50, ocuparía más espacio en la cubierta y sería considerablemente más cara.

En el análisis final, los especialistas en artillería dentro de BuOrd concluyeron que debido al pequeño tamaño del objetivo de un bombardero en picado, proporcionar “un arma de mayor capacidad destructiva de la que [podría] ser lanzada por un proyectil sólido [calibre .50]” era esencial. Su recomendación convenció al jefe de la oficina, el contralmirante William D. Leahy, de continuar con el desarrollo del cañón de máquina de 1,1 pulgadas y su montaje cuádruple.

El trabajo en la nueva arma avanzó lentamente debido a las restricciones económicas de la Gran Depresión impuestas a la Marina. Las pruebas en el campo de tiro en Dahlgren no comenzaron hasta marzo de 1931. Fueron necesarios otros tres años para resolver todas las dificultades de ingeniería encontradas en el diseño de la montura motorizada, una complicada pieza de maquinaria que poseía dos características inusuales para contrarrestar la inmersión. -amenaza de bomba. La montura elevaba los cañones del arma más allá de los 90 grados normales y tenía un mecanismo de desplazamiento en el plano de los cuatro cañones que permitía ajustar la puntería del arma en ángulos de disparo muy altos.

La munición se introdujo en cada una de las cuatro pistolas refrigeradas por agua desde cargadores de siete disparos insertados en soportes encima de cada arma. Las cunas tenían dos cargadores: uno en posición de disparo y el otro en posición de espera. Cuando se vació el primer cargador, se soltó automáticamente, lo que permitió que el segundo cargador cayera en su lugar. Los casquillos de cartuchos vacíos se expulsaron de una carcasa de cierre debajo del cargador.

Los destructores llevaron a cabo pruebas de disparo de los primeros montajes de cañones cuádruples de 1,1 pulgadas entregados a la Flota. Phelps (DD-360) y Clark (DD-361) en la primavera de 1937 y reveló varios problemas inesperados. Los artilleros a bordo de ambos barcos se quejaron de vibraciones y humo que obstaculizaron su capacidad para ver el objetivo. los ClarkLos equipos de armas "no habían dominado el ajuste adecuado del resorte de retroceso", lo que provocó que el arma se atascara, un problema que afectaría al arma durante toda su vida útil. Los equipos de armas en el Phelps pudieron superar este "problema de paro".

En el transcurso del próximo año, el barco objetivo Utah (AG-16), que recibió una de las primeras instalaciones del cañón cuádruple de 1,1 pulgadas, realizó un esfuerzo intensivo para desarrollar un medio práctico y eficaz de control de incendios que superara el problema de avistamiento. La vibración y el humo continuaron siendo un problema, interfiriendo con el control de incendios y causando un serio obstáculo para la detección. La vibración era tan severa, escribió el UtahEl oficial al mando, que “A partir de la primera salva, los pistoleros son empujados en sus asientos, recibiendo continuas descargas corporales. Al mismo tiempo, las vistas comienzan a vibrar salvajemente. Esto, junto con el humo y la explosión, constituye una gran dificultad para avistar ".

Para superar este problema BuOrd, con la ayuda del Utah, diseñó un director de control remoto, el Mark 44, para el cañón cuádruple de 1,1 pulgadas que proporcionaría ajustes en el tren y las elevaciones. 2 Desafortunadamente, las entregas del director no comenzaron hasta los últimos meses de 1941, por lo que la mayoría de los barcos de la Armada, incluido el Lexington (CV-2) y Empresa (CV-6) - entró en la guerra sin este equipo esencial.

En servicio, los equipos de armas encontraron que la pistola de 1.1 pulgadas era difícil de mantener y propensa a fallar. El arma y la montura sufrieron una serie de problemas, incluida la tendencia a sobrecalentarse y atascarse después de algunas rondas a medida que el arma se calentaba. Funcionaba bien si se mantenía correctamente, pero el mantenimiento era una pesadilla, especialmente para los nuevos reclutas. Una fuente señaló que el arma requería los servicios de un compañero de artillero de primer nivel solo para que siguiera disparando. Walter Becker, quien sirvió en el Clark, recordó que durante el LexingtonEn febrero de 1942, en la incursión abortada de Rabaul, el capitán de un arma trató de mantener su pulgada de 1,1 pulgadas con un mazo de madera y un uso liberal de blasfemias.

La munición del arma también fue problemática. La mecha del proyectil de alto explosivo contenía un breve retardo de tiempo que teóricamente permitía que el proyectil penetrara la piel de un avión antes de detonar. Pero la mecha de alta sensibilidad, que se armaba al disparar, no tenía ningún dispositivo de seguridad. Las explosiones prematuras dentro del cañón de la pistola durante la práctica de tiro no eran infrecuentes. No hace falta decir que esto causó una gran incomodidad tanto a la tripulación como a los transeúntes. Según un relato, el oficial de artillería antiaérea del crucero pesado San Francisco (CA-38) se negó a realizar entrenamiento con fuego real porque ponía en peligro la vida de los artilleros.

Mientras que los cañones de 1,1 pulgadas prestaron un servicio valioso en las primeras batallas del Pacífico, los Bofors de 40 mm los reemplazaron en la mayoría de los buques de guerra de la Armada. Las escoltas de destructores, utilizadas principalmente para cazar submarinos & # 8211 no proteger contra ataques aéreos & # 8211 continuaron cumpliendo con 1.1 cañones, incluidos estos a bordo del USS FRANCIS M. ROBINSON (DE-220). (Archivos Nacionales)


Datos y estadísticas del censo de EE. UU.

La Oficina del Censo de los Estados Unidos proporciona datos sobre la población y la economía de la nación y los rsquos. Cada 10 años, realiza el Censo de Población y Vivienda, en el que se contabiliza a todos los residentes de Estados Unidos. La agencia también recopila datos a través de más de 100 otras encuestas de hogares y empresas cada uno a cinco años. Puede explorar los resultados de las encuestas o encontrar datos breves populares.

El censo de 2020 finalizó en octubre de 2020. Eche un vistazo al proceso.

¿Cómo se utilizan los datos del censo?

Sus respuestas pueden ayudar a determinar cuántos fondos recibirá su comunidad local para los servicios públicos. Los datos de población del censo se utilizan para dividir los escaños en la Cámara de Representantes de los Estados Unidos entre los 50 estados. También se puede utilizar para trazar límites para distritos escolares y legislativos estatales.

Además de utilizar los datos del censo para el beneficio de los servicios públicos, también puede utilizarlos para la investigación genealógica. Para proteger la privacidad de las personas que responden al censo de EE. UU., Todos los registros se mantienen confidenciales durante 72 años. Descubra qué información genealógica está disponible y dónde puede acceder a ella.

¿Qué estadísticas puedo obtener del censo?

Obtenga información demográfica y de población sobre el país, los estados individuales y más:

Amplíe y ordene los datos del censo con mapas interactivos.

Vea los cambios en las estimaciones de población de EE. UU. Y el mundo en vivo con el Reloj de población.

Vea datos de edad y sexo para comprender los cambios de población a lo largo del tiempo.

¿Cómo puedo ver los resultados del censo?

Revise todas las encuestas y sus datos realizados por la Oficina:

¿Tengo que responder al censo?

Por ley, todos deben ser contados en el censo. Si no responde, la Oficina del Censo de los EE. UU. Se comunicará con usted en persona y visitará su hogar.


Historia del U-111 - Historia

Las principales admisiones de refugiados ocurrieron fuera del sistema de cuotas de origen nacional durante la década de 1950. La Ley de Ayuda a los Refugiados (RRA) del 7 de agosto de 1953 y las enmiendas de agosto de 1954 autorizaron la admisión de 214.000 refugiados de Europa devastada por la guerra y fugitivos de países ocupados por los comunistas. El treinta por ciento de las admisiones durante la vigencia de la ley fueron italianos, seguidos de alemanes, yugoslavos y griegos.

El RRA se originó como un proyecto de ley de la Administración y combinó la preocupación humanitaria por los refugiados y los fugitivos con consideraciones políticas internacionales. Citando la carta del presidente Eisenhower que acompañaba al proyecto de ley:

"Estos refugiados, fugitivos y pueblos afligidos constituyen ahora una amenaza económica y política de magnitud en constante crecimiento. Miran hacia la preocupación humanitaria tradicional estadounidense por los oprimidos. Las consideraciones políticas internacionales también son factores que intervienen. Debemos tomar medidas razonables para ayudar a estos personas en la medida en que compartimos la obligación del mundo libre ".

En particular, la inclusión de la categoría de los fugitivos de la dominación comunista en esta legislación y la subsiguiente sobre refugiados reflejó las preocupaciones de este período de la Guerra Fría. Esta preocupación también fue un factor importante en la admisión de refugiados de la infructuosa revolución húngara de octubre de 1956. Un total de 38.000 refugiados húngaros fueron finalmente admitidos en los Estados Unidos, 6.130 con visas RRA y el resto bajo la disposición de libertad condicional de la Ley de Inmigración y Ley de Nacionalidad (INA).

La Ley del 11 de septiembre de 1957, a veces denominada Ley de Refugiados-Fugitivos, preveía la admisión de ciertos extranjeros que eran elegibles según los términos de la Ley de Ayuda a los Refugiados, así como los refugiados-fugitivos, definidos como personas que huían de la persecución en Países comunistas o países de Oriente Medio. Esta fue la base para la definición de refugiado incorporada en la INA desde 1965 hasta 1980. Un total de 29,000 ingresaron bajo las disposiciones de refugiados temporales de 1957, encabezadas por húngaros, coreanos, yugoslavos y chinos.

Durante la década de 1960, los refugiados de la persecución en países dominados por los comunistas en el hemisferio oriental y de países del Medio Oriente continuaron siendo admitidos, primero bajo la Ley de Reparto Justo, promulgada el 14 de julio de 1960, y luego bajo la INA. Aproximadamente 19.700 refugiados ingresaron bajo la legislación de 1960. Su objetivo principal era permitir que Estados Unidos participara en un esfuerzo internacional para cerrar los campos de refugiados que habían estado en funcionamiento en Europa desde el final de la Segunda Guerra Mundial. La participación de Estados Unidos se limitó a una cuarta parte del número total reasentado.

Los refugiados cubanos comenzaron a ingresar a Estados Unidos con la caída del gobierno de Batista y la posterior toma del poder comunista en 1959, y continuaron durante la década de 1960 y, en menor número, durante la de 1970. Aproximadamente 700.000 refugiados cubanos habían entrado a los Estados Unidos antes de una nueva afluencia que comenzó en abril de 1980. Estados Unidos ha aceptado a los cubanos como refugiados del comunismo a través de una variedad de medios legales.

Las enmiendas de la INA de 1965 y sus consecuencias

Las enmiendas de octubre de 1965 a la Ley de Inmigración y Nacionalidad de 1952 (INA) derogaron el sistema de cuotas de origen nacional y representaron la revisión de mayor alcance de la política de inmigración en los Estados Unidos desde la Primera Ley de Cuotas de 1921. En lugar de consideraciones de nacionalidad y etnia , las enmiendas de la INA (PL 89 236 79 Stat. 911) sustituyeron un sistema basado principalmente en la reunificación de familias y las habilidades necesarias.

Las circunstancias que llevaron a este importante cambio de política en 1965 fueron una combinación compleja de cambios en las percepciones y valores públicos, la política y el compromiso legislativo. Se puede argumentar que la legislación de inmigración de 1965 fue tanto un producto de mediados de la década de 1960 y del 89. ° Congreso fuertemente demócrata, que también produjo importantes leyes de derechos civiles, como la Ley de 1952 fue producto del período de la Guerra Fría de principios de la década de 1950. .

Las enmiendas de 1965 adoptaron un límite máximo anual de inmigración en el hemisferio oriental de 170.000 y un límite de 20.000 por país. Dentro de estas restricciones, las visas de inmigrantes se distribuyeron de acuerdo con un sistema de preferencia de siete categorías que priorizaba la reunificación familiar, atraía las habilidades necesarias y los refugiados. La ley de 1965 también disponía que, a partir del 1 de julio de 1968, la inmigración del hemisferio occidental estaría limitada por un tope anual de 120.000 sin límites por país o un sistema de preferencias.

Las Enmiendas de la INA de 1976 (P.L. 94-571 90 Stat. 2703) extendieron al Hemisferio Occidental el límite de 20.000 por país y una versión ligeramente modificada del sistema de preferencias de siete categorías. La legislación promulgada en 1978 (P.L. 95 412 92 Stat. 907) combinó los límites máximos separados en un solo límite mundial de 290.000 con un único sistema de preferencias. La Ley de Refugiados de 1980 (P.L. 96 212 94 Stat. 102) eliminó a los refugiados como una categoría del sistema de preferencias y estableció el límite mundial en 270.000, sin incluir a los refugiados.

Desde 1965, la principal fuente de inmigración a los Estados Unidos se ha desplazado de Europa a América Latina y Asia, revirtiendo la tendencia desde la fundación de la nación. Según el Servicio de Inmigración y Naturalización (INS), Europa representó el 50 por ciento de la inmigración estadounidense durante la década de los años fiscales de 1955 a 1964, seguida de América del Norte con el 35 por ciento y Asia con el ocho por ciento. En el año fiscal 1988, Asia alcanzó el nivel más alto con un 41 por ciento, seguida de América del Norte con un 39 por ciento y Europa con un 10 por ciento.En orden, los países que superaron los 20.000 inmigrantes en el año fiscal 1988 fueron México, Filipinas, Haití, Corea, India, China continental, República Dominicana, Vietnam y Jamaica.

Estas cifras reflejan un cambio tanto en la accesibilidad como en las condiciones en los países de origen. Por ejemplo, la inmigración asiática, que estaba severamente limitada antes de las enmiendas de 1965, posteriormente se ha visto incrementada por el gran número de refugiados indochinos que se ajustan a la condición de inmigrantes fuera de los límites numéricos. Por otro lado, la inmigración irlandesa cayó de 6.307 en el año fiscal 1964 a 1.839 en el año fiscal 1986, con 734 ingresando bajo el sistema de preferencias y la mayoría ingresando como parientes inmediatos de ciudadanos estadounidenses. Irlanda se ha visto muy favorecida por el sistema de cuotas de origen nacional.

En años más recientes, la tendencia anterior ha continuado en gran medida. Según Pew Hispanic: “Las regiones de origen de las poblaciones inmigrantes que residen en los EE. UU. Han cambiado drásticamente desde la aprobación de la Ley de Inmigración y Naturalización de 1965. En 1960, el 84% de los inmigrantes que vivían en Estados Unidos nacieron en Europa o Canadá, mientras que solo el 6% eran de México, el 3,8% del sur y este de Asia, el 3,5% del resto de América Latina y el 2,7% de otras áreas. Los orígenes de los inmigrantes ahora [a partir de 2016] difieren drásticamente, ya que los inmigrantes europeos y canadienses representan solo una pequeña parte de la población nacida en el extranjero (13,2%) en 2016. Asia meridional y oriental (26,9%), mexicanos (26,5%) y otros latinoamericanos (24,5%) representan cada uno alrededor de una cuarta parte de la población inmigrante de Estados Unidos, seguidos por el 8,9% que nacieron en otra región ".

Los defensores de la INA de 1965 aseguraron repetidamente a la sociedad estadounidense que la enmienda estaba lejos de ser radical. Por ejemplo, el senador Edward Kennedy (D-Massachusetts) afirmó:

Primero, nuestras ciudades no se verán inundadas con un millón de inmigrantes anualmente. Según el proyecto de ley propuesto, el nivel actual de inmigración sigue siendo sustancialmente el mismo (.). En segundo lugar, la mezcla étnica de este país no se alterará (.). Contrariamente a las acusaciones en algunos sectores, [el proyecto de ley] no inundará a Estados Unidos con inmigrantes de ningún país o área, o de las naciones más pobladas y desfavorecidas de África y Asia (.). En el análisis final, no se espera que el patrón étnico de inmigración bajo la medida propuesta cambie tan drásticamente como parecen pensar los críticos.

En realidad, cada una de las garantías que ofreció Kennedy ha sido probada errónea por eventos posteriores. Como señaló el presidente de FAIR, Dan Stein, en su quincuagésimo aniversario:

Según cualquier criterio objetivo, la Ley de inmigración de 1965 debería considerarse un fracaso abyecto, y corresponde a los líderes de hoy en día fijar una ley que ha producido innumerables consecuencias no deseadas que amenazan el futuro de nuestra nación (...). La ley ha provocado un crecimiento demográfico imprudente, una creciente dependencia del sistema de bienestar social y ha sobrepasado la capacidad del país para asimilar a los inmigrantes y sus hijos a la corriente social, cultural y económica.

Historia de la inmigración: desde la década de 1970 hasta el presente

De 1970 a 1990: problemas de inmigración, revisión y revisión

Los patrones de inmigración y las consideraciones de política relacionadas con ella en la década de 1970 se parecían en algunos aspectos a los de la década de 1950 después de la promulgación de la Ley de Inmigración y Nacionalidad. En ambas décadas, la entrada de extranjeros fuera de las disposiciones de la ley básica, tanto ilegalmente como indocumentados como legalmente como refugiados, fue cada vez más el patrón dominante en la inmigración y la base de los principales problemas que enfrenta el Congreso. La respuesta legislativa al tema de los refugiados en 1980 y los extranjeros indocumentados en 1986 fue seguida en 1987 por un cambio en la atención del Congreso a la inmigración legal.

El informe de 1981 de la Comisión Nacional Selecta sobre Política de Inmigración y Refugiados contribuyó a la revisión del Congreso de los problemas de inmigración. La Comisión de dieciséis miembros fue creada por la legislación promulgada en 1978 para estudiar y evaluar las leyes, políticas y procedimientos de inmigración y refugiados. Su conclusión básica fue que la inmigración controlada ha sido y sigue siendo de interés nacional, y esto subyace en muchas de sus recomendaciones. Las recomendaciones de la Comisión fueron resumidas por el presidente Theodore Hesburgh en su introducción:

"Recomendamos cerrar la puerta trasera a la migración ilegal e indocumentada, abrir un poco más la puerta principal para acomodar la migración legal en los intereses de este país, definir claramente nuestras metas migratorias y proporcionar una estructura para implementarlas de manera efectiva, y establecer procedimientos que conducirá a una adjudicación y administración justas y eficientes de las leyes de inmigración de los Estados Unidos ".

Refugiados y la Ley de Refugiados de 1980

Entre 1975 y 1980, los refugiados y las cuestiones relacionadas con los refugiados dominaron la preocupación del Congreso por la inmigración más de lo que lo habían hecho desde los años posteriores a la Segunda Guerra Mundial. A partir de la caída de Vietnam y Camboya ante los comunistas en abril de 1975, este período de cinco años vio la admisión de más de 400.000 refugiados indochinos, la promulgación de importantes enmiendas a la Ley de Inmigración y Nacionalidad en la forma de la Ley de Refugiados de 1980. y el éxodo desde el puerto de Mariel, Cuba, hacia el sur de Florida.

La legislación sobre refugiados de 1980 se promulgó en parte en respuesta a la creciente frustración del Congreso por la dificultad de hacer frente al actual flujo de refugiados indochinos a gran escala en el marco de los mecanismos especiales de admisión y reasentamiento de refugiados existentes. A fines de la década de 1970, se llegó a un consenso sobre la necesidad de un enfoque más coherente y equitativo para la admisión y el reasentamiento de refugiados. El resultado fueron las enmiendas a la Ley de Inmigración y Nacionalidad contenidas en la Ley de Refugiados de 1980, promulgada el 17 de marzo de 1980 (P.L. 96-212 94 Stat. 102).

La Ley de Refugiados derogó las limitaciones que anteriormente habían favorecido a los refugiados que huían del comunismo o de países de Oriente Medio y redefinió el concepto de refugiado para ajustarse a la definición utilizada en el Protocolo y la Convención de las Naciones Unidas sobre el Estatuto de los Refugiados. El término refugiado se define ahora en la Ley de inmigración y nacionalidad como una persona que no desea o no puede regresar a su país de nacionalidad o residencia habitual debido a la persecución o un temor fundado de persecución por motivos de raza, religión, nacionalidad, pertenencia a un grupo social particular u opinión política. Las enmiendas de 1980 preveían tanto un flujo regular como la admisión de emergencia de refugiados, tras la consulta prescrita por la legislación con el Congreso. Además, la ley autorizó la asistencia federal para el reasentamiento de refugiados.

Poco después de la promulgación de la Ley de Refugiados de 1980, un gran número de cubanos ingresó a los Estados Unidos a través del sur de Florida, por un total estimado de 125.000, junto con un número cada vez menor de haitianos. La Administración Carter no estaba dispuesta a clasificar a ninguno de los grupos como refugiados y no se tomó ninguna medida sobre la legislación especial solicitada por la Administración. A partir de 1984, la Administración Reagan ajustó a la mayoría de los cubanos al estatus de residente permanente legal bajo P.L. 89 732, legislación de 1966 promulgada en respuesta a la situación de los refugiados cubanos en la década de 1960. Sin embargo, la situación de los inmigrantes cubanos / haitianos no se resolvió finalmente hasta la promulgación de la Ley de Control y Reforma de la Inmigración de 1986, que incluía disposiciones especiales de legalización.

La inmigración ilegal y el IRCA de 1986

La legislación de inmigración centrada en la inmigración ilegal fue considerada y aprobada por el 99 ° Congreso y promulgada como la Ley de Control y Reforma de la Inmigración (IRCA) de 1986 P.L. 99-603 (6 de noviembre de 1986 100 Stat.3359), consiste principalmente en enmiendas de la Ley de Inmigración y Nacionalidad (INA) básica de 1952, enmendada (8 U.S.C.1101 et seq.).

La reforma de la ley relativa al control de la inmigración ilegal se había estado considerando durante 15 años, es decir, desde principios de la década de 1970. La legislación de 1986 marcó la culminación de los esfuerzos bipartidistas tanto del Congreso como del poder ejecutivo bajo cuatro presidentes. Como una indicación de la creciente magnitud del problema, la aprehensión anual de extranjeros indocumentados por parte del Servicio de Inmigración y Naturalización (INS) del Departamento de Justicia aumentó de 505,949 en 1972, el primer año de legislación destinada a controlar la inmigración ilegal que recibió la acción de la Cámara, a 1,767,400. en 1986. En 1987, después de la adopción de IRCA, las detenciones del INS se redujeron en un tercio a 1.190.488.

La perspectiva de empleo en los Estados Unidos es un imán económico que atrae a extranjeros aquí ilegalmente. El principal remedio legislativo propuesto en el pasado, e incluido en la nueva ley, son las sanciones a los empleadores, o sanciones para los empleadores que contraten a sabiendas a extranjeros no autorizados para trabajar en los Estados Unidos. Con el fin de evitar un problema importante de aplicación de la ley en relación con los extranjeros que establecieron sus raíces aquí antes del cambio de política, se estableció un programa de legalización que proporcionó estatus legal a los extranjeros elegibles que habían estado aquí ilegalmente desde antes de 1982. En segundo lugar, la legislación buscaba para responder a la aparente gran dependencia de la agricultura estacional de los trabajadores ilegales mediante la creación de un programa especial de trabajadores agrícolas de 7 años y la racionalización del programa de trabajadores temporales H-2 previamente existente para agilizar la disponibilidad de trabajadores extranjeros y proporcionar protecciones legales para EE. UU. y trabajo extraterrestre.

En general, la amnistía de 1986 fue un fracaso porque el número de inmigrantes ilegales en los Estados Unidos se ha cuadriplicado desde entonces: de los aproximadamente 3 millones amnistiados en 1986 a aproximadamente 12,5 millones en 2017.

Inmigración legal y la Ley de inmigración de 1990

Después de la promulgación de la Ley de Control y Reforma de la Inmigración (IRCA) de 1986, que adoptó un cambio importante en la disuasión contra la inmigración ilegal, la atención del Congreso se centró en la inmigración legal, incluido el sistema adoptado en 1965 de límites numéricos a la inmigración permanente. Este fue un problema por varias razones. Ha surgido preocupación por el mayor número de inmigrantes admitidos sobre la base de la reunificación familiar en comparación con el número de inmigrantes independientes que no son familiares, y por el número limitado de visados ​​disponibles para ciertos países en el marco del sistema de preferencias. También había preocupación por las crecientes listas de espera de visas (retrasos) bajo el sistema de preferencias existente y por la admisión de familiares inmediatos de ciudadanos estadounidenses fuera de los límites numéricos.

La legislación principal que aborda estas preocupaciones fue aprobada por el Senado y fue introducida en la Cámara en el 100º Congreso (1987 a 1988). Sin embargo, solo se aprobaron leyes temporales que abordan preocupaciones limitadas, dejando la consideración adicional de una revisión a gran escala de la inmigración legal al 101º Congreso.

La Ley de inmigración de 1990 (IMMACT90) se convirtió en ley como P.L. 101-649 por el presidente Bush el 29 de noviembre de 1990. Constituyó una revisión importante de la Ley de Inmigración y Nacionalidad, que siguió siendo la ley básica de inmigración. Su enfoque principal fueron los límites numéricos y el sistema de preferencias que regulan la inmigración legal permanente. Además de la inmigración legal, la Ley de ocho títulos se ocupa de muchos otros aspectos de la ley de inmigración que van desde los no inmigrantes hasta los extranjeros criminales y la naturalización.

Los cambios de inmigración legal incluyeron un aumento en la inmigración total bajo un límite flexible general, un aumento en la inmigración anual basada en el empleo de 54.000 a 140.000 y una disposición permanente para la admisión de "inmigrantes de diversidad" de países "subrepresentados". El nuevo sistema proporcionó un nivel anual permanente de aproximadamente 700.000 durante los años fiscales de 1992 a 1994. Los refugiados fueron el único grupo importante de extranjeros no incluido. La Ley estableció un sistema de preferencia de tres vías para inmigrantes patrocinados por la familia, basados ​​en el empleo y por diversidad. Además, la Ley modificó significativamente las categorías de no inmigrantes relacionadas con el trabajo para la admisión temporal.

IMMACT90 (P.L.101-649) abordó una serie de otros problemas. Brindó a los salvadoreños indocumentados un estatus de protección temporal por un período limitado de tiempo y enmendó la Ley de Inmigración y Nacionalidad para autorizar al Fiscal General a otorgar estatus de protección temporal a los nacionales de países designados sujetos a conflictos armados o desastres naturales. También autorizó una suspensión temporal de deportación y autorización de trabajo para los familiares inmediatos elegibles de los extranjeros legalizados por IRCA, y puso a disposición 55,000 visas adicionales para ellos anualmente durante los años fiscales de 1992 a 1994.

Como respuesta a las críticas a las sanciones de los empleadores, IMMACT90 amplió las disposiciones contra la discriminación de la IRCA y aumentó las sanciones por discriminación ilegal. Revisó significativamente los motivos políticos e ideológicos de exclusión y deportación que habían sido controvertidos desde su promulgación en 1952.

Ley de Reforma de la Inmigración Ilegal y Responsabilidad del Inmigrante (1996)

Fondo

La Ley de Reforma de la Inmigración Ilegal y Responsabilidad del Inmigrante (IIRAIRA), promulgada en 1996, resultó del proceso de deliberar sobre las recomendaciones de la Comisión de Reforma de la Inmigración de los Estados Unidos establecida por el presidente Clinton y el Congreso para examinar cuestiones de inmigración legal e ilegal.

La Comisión estuvo presidida hasta su prematura muerte en 1996 por el Excmo. Barbara C. Jordan, quien sirvió en la Cámara de Representantes de los Estados Unidos (D-TX) 1973-79, y fue profesora en la Univ. de Texas-Austin 1979-96. Los miembros de la Comisión incluyeron distinguidos expertos en derecho e historia de la inmigración y otros con experiencia en política y negocios nacionales.

Después de un largo y arduo esfuerzo para desarrollar una legislación bipartidista que se ocupara de la reforma de la inmigración legal e ilegal, el Congreso redujo su enfoque en las disposiciones sobre inmigración ilegal con la promesa de muchos de que regresarían pronto al esfuerzo por reformar la inmigración legal.

"La credibilidad en la política de inmigración se puede resumir en una frase: los que deberían entrar, los que deberían estar fuera, los que deberían estar fuera, los que no debían estar aquí tendrán que irse. Para que el sistema sea creíble , la gente en realidad tiene que ser deportada al final del proceso ".
(Barbara Jordan, 24 de febrero de 1995 Testimonio ante el Subcomité de Inmigración de la Cámara de Representantes)

Las disposiciones de IIRAIRA tenían como objetivo adoptar penas más severas contra la inmigración ilegal, agilizando el proceso de deportación (remoción) al reducir el interminable proceso de apelación legal que usaban los abogados de inmigración para mantener a sus clientes en los Estados Unidos hasta que encontraran un juez comprensivo. quién haría una gran suspensión de la deportación (cancelación de la deportación). Otras disposiciones más estrictas adoptadas en el mismo año tenían como objetivo frenar la capacidad de los terroristas de utilizar el proceso de inmigración para ingresar y operar en los Estados Unidos y restringir el uso de los beneficios de bienestar público por parte de los nuevos inmigrantes en contra de la intención de la ley de inmigración.

"Para que nuestra política de inmigración tenga sentido, es necesario hacer distinciones entre quienes obedecen la ley y quienes la violan".
(Barbara Jordan, discurso ante United We Stand, America Conference, Dallas, TX, 12 de agosto de 1995)


Contenido

Se encargaron unos 380 submarinos en el Kaiserliche Marine en los años antes y durante la Primera Guerra Mundial. Aunque los primeros cuatro submarinos alemanes—U-1, U-2, U-3, U-4—Fueron comisionados antes de 1910, los cuatro sirvieron en una capacidad de entrenamiento durante la guerra. Los submarinos alemanes utilizados durante la Primera Guerra Mundial se dividieron en tres series. los U La designación estaba generalmente reservada para submarinos torpedos de ataque en alta mar. los UB La designación se utilizó para los submarinos de ataque costero, mientras que la UC La designación se reservó para los submarinos mineros costeros.

U-boats [editar | editar fuente]

Los submarinos diseñados principalmente para el servicio en aguas profundas se designaron con un U prefijo y numerado hasta 167.


Historia del U-111 - Historia

1. Códigos de fecha
2. Códigos de plumilla
3. Sellos y otras marcas

4. Códigos de condición
5. Códigos de abreviatura

1. Códigos de fecha en los bolígrafos Parker

En medio 1934 Parker comenzó a marcar la mayoría de los bolígrafos y lápices con un código de fecha, tanto el cuerpo como las puntas estaban marcados, pero la falta de un código de fecha no significa necesariamente que el bolígrafo se fabricó antes de 1935, ya que muchas huellas se han borrado con el uso. Los primeros códigos de fecha, que se encuentran, por ejemplo, en las Vacumatics, constan de dos dígitos, el primero indica el trimestre de producción y el segundo el año de producción. Por lo tanto, una marca "47" en un bolígrafo de 1930 indica que el bolígrafo se fabricó en el cuarto trimestre de 1937, no en 1947, lo cual es un error común.


En el segundo trimestre de 1938 Sin embargo, este sistema se modificó para ahorrar tiempo de producción y se adoptó un nuevo código de fecha, utilizando un sistema de puntos. El sello inicialmente tenía tres puntos y por cada trimestre se archivaba un punto sin dejar ninguno para el cuarto trimestre. Dado que la producción se superpone, existen ejemplos con la impresión 28 o .8. para el segundo trimestre de 1938. Además, dado que este sistema de codificación se extendió por más de una década, un bolígrafo marcado con 38 podría producirse el tercer trimestre en 1938 o 1948.

En 1950 Se introdujo un nuevo sistema para la codificación de fechas en el que los dos dígitos solo indicaban el año, no el trimestre, por lo tanto, 50 significa hecho en 1950, este sistema se usó en los EE. UU. hasta 1955 y en Canadá unos años más ..

Se ha asumido que Parker comenzó a marcar algunos de sus bolígrafos en las molduras o bandas de la tapa para permitir la datación en 1970. Usando las palabras & quotBolígrafo de calidad& quot, una letra por año, seguida de un marcador de un cuarto, lo que permite la datación dentro de un lapso de diez años.
Hasta ahora, las primeras plumas codificadas con fecha encontradas tenían el código NL para 1979, y todos estos bolígrafos se fabricaron en los EE. UU. Posiblemente anticipando el 1980 código de inicio oficial de fecha en Francia y el Reino Unido, esto podría haber llevado a la presunción de que la datación comenzó realmente en 1970, pero aún no se ha encontrado prueba de esto.
El marcador de cuarto cambió en 1988 de E, C, L, I a III, II, I o ninguno (último trimestre) según la tabla siguiente.
En 2000 el código nuevamente sufrió un pequeño cambio cuando el trimestre cambió de lado con el año y había un punto entre ellos & quotQ.III & quot
Sin embargo, existen inconsistencias, como puntos faltantes y códigos de cuartos que aparecen en el lado incorrecto del código del año.

Año Q1 Q2 Q3 Q4
---------------------------------
1979 - - - NL NI La codificación de fecha comienza en los EE. UU.

1980 - QE QC QL QI La codificación de fecha comienza en el Reino Unido y Francia
1981 - UE UC UL UI
1982 - AE AC AL AI
1983 - LE LC LL LI
1984 - IE IC IL II
1985 - TE TC TL TI
1986 - YE YC YL YI

1987 - PE PC PL PI
1988 - IIIE IIE IE E (cambiar)
1989 - IIIN IIN EN N

1990 - IIIQ IIQ IQ Q
1991 - IIIU IIU IU U
1992 - IIIA IIA IA A
1993 - IIIL IIL IL L
1994 - IIII III II I
1995 - IIIT IIT IT T
1996 - IIIY IIY IY Y

1997 - IIIP IIP IP P
1998 - IIIE IIE IE E
1999 - IIIN IIN EN N

2000 - Q.III Q.II Q.I Q (cambiar)
2001 - U.III U.II U.I U
2002 - A.III A.II A.I A
2003 - L.III L.II L.I L
2004 - I.III I.II I.I I
2005 - T.III T.II T.I T
2006 - Y.III Y.II Y.I Y

2007 - P.III P.II P.I P
2008 - E.III E.II E.I E
2009 - N.III N.II N.I N


2010 - Q.III Q.II Q.I Q
2011 - U.III U.II U.I U

2. Códigos de plumilla

(existen discrepancias entre modelos)

62 Contador-Produce líneas muy finas con un toque delicado.
Generalmente utilizado para trabajo de figuras 14k

63 Extra fino: para escritura de líneas finas con un toque ligero 14k

64 Steno-A fine point adaptado para su uso en taquigrafía y escritura rápida 14k

65 Excelente para escritura general y toma de notas. Moderar
la presión produjo una línea fina 14k

66 Medio: mejor para presión de escritura promedio, ancho de línea promedio,
uso general completo 14k

67 Broad-A punta redondeada más pesada para líneas anchas 14k

68 Punta redondeada extra ancha-A grande. Excelente para líneas gruesas y
firmas en negrita 14k

69 Punta fina Stub-A para escritura e impresión delicadas y sombreadas.
Produce líneas gruesas en trazo horizontal, líneas finas en vertical
carrera 14k

70 Medio Stub: una punta plana más pesada para escritura e impresión sombreadas.
Diseñado para personas que sostienen el bolígrafo con muy poca inclinación 14k

72 Stub-Parkers extra ancho punto más ancho. Para muy pesado
líneas en el trazo hacia abajo y líneas medianas en el trazo lateral 14k

74 Cursiva oblicua fina mano derecha 18k

75 Oblicuo derecho medio 14k

75 Cursiva oblicua mediana mano derecha 18k

76 Cursiva amplia oblicua mano derecha 18k

77 Cursiva oblicua fina mano izquierda 18k

78 Cursiva oblicua mediana mano izquierda 18k

79 Cursiva amplia oblicua mano izquierda 18k

79 Oblicuo medio izquierdo: para aquellos que inclinan el bolígrafo cuando escriben. El oblicuo derecho tiene la superficie más grande en el lado derecho del punto. Left Oblique tiene inclinación opuesta para escritores zurdos 14k

80 Punta de aguja 18k
81
82
83
84
85 Extra ancho 18k
86 Extra extra ancho 18k
87 Mano derecha oblicua fina 18k
88 Mano derecha oblicua mediana 18k
88 Extra amplio para ejecutivos: desarrollado para personas a las que les gusta escribir con audacia y rapidez y desean un toque especial en sus firmas 14k

89 Mano derecha oblicua ancha 18k
90
91 Mano derecha oblicua extra ancha 18k
92 Extra Extra ancho oblicuo mano derecha 18k
93 Mano izquierda oblicua mediana 18k
94 Cursiva media 14k
95 Cursiva amplia 14k
96 Mano izquierda oblicua fina 18k

97 Cursiva fina 14k
97 Mano izquierda oblicua ancha 18k

98 Cursiva fina 14k
98 Cursiva pesada: diseño expreso para escritura a mano en cursiva. Los puntos planos y de bordes anchos generalmente se colocan sobre el papel en un ángulo de 45 grados 14k

También
X Extra fino
F Multa
METRO Medio
B Amplio

FI Fina caligráfica
MI Caligráfico medio
BI Caligrafía amplia

3. Señas de identidad y otras marcas

Compañía Parker Pen, EE. UU.

Plumas Parker. ltd, Reino Unido

Parker Pen, Francia

Parker Pen Company, Canadá
PPCO

Oro macizo (K o CT para quilates / quilates)

24K o 1000 (partes de 1000)
22K o 916
18K o 750 el contenido de oro más bajo permitido en Francia hasta 1994
15K o 625 descontinuados en 1935
14K o 585
12K o 500
10K o 416 El contenido de oro más bajo permitido en EE. UU.
9K o 375 Contenido de oro más bajo permitido en Canadá y Reino Unido
8K o 333 Contenido de oro más bajo permitido en Alemania

Marcas comunes de Parker:
375
585
750
9K
14K
18K

Relleno de oro o superposición:
Una capa sólida de oro, unida mecánicamente al latón o, a veces, a otros materiales, con calor y presión. Por lo general, alrededor de 80-120 micrómetros de espesor. Un micrómetro es 1/1000 de milímetro. (aprox. 0,000039 pulgadas)
Para estampar 10K, la capa debe ser igual a al menos 1/10 del peso total del artículo.
Para estampar 12K o más, la capa debe igualar al menos 1/20 del peso total del artículo.

Marcas comunes de Parker:
1/10 12K relleno de oro
14K GF
1/8 relleno de oro de 14 K
1/10 relleno de oro de 14 K
1/10 16K relleno de oro

Oro laminado:
El mismo proceso que el anterior, pero la hoja de oro se enrolla después de la unión, lo que produce una capa más delgada de oro, generalmente de 20 a 40 micrómetros de espesor.

Marcas comunes de Parker:
Oro laminado
1/10 de oro de 12 ct R

Chapado en oro:
El baño de oro suele ser una capa más delgada que la anterior. La galvanoplastia agrega químicamente una capa muy delgada de oro al material base. Mucho más propenso al latón. Por lo general, menos de 10-20 micrómetros de espesor.

Dorado:
El mismo proceso que antes, pero con una capa muy fina de oro, generalmente de menos de 5 micrómetros de espesor.

PVD alias Dimonite G alias Fileté:
En 1986 Parker patentó un proceso, desarrollado junto con Jamers Snyder de la Universidad de Wisconsin, para depositar microcapas de oro y nitruro de titanio para crear el brillo del oro pero la durabilidad del cromo. El proceso implica la deposición física de vapor de oro (PVD). Parker lo llamó & quotDimonite G & quot. Según Parker, una superficie microlaminada de 1,3 micrómetros tiene una "vida útil" equivalente o superior a la de un baño de oro de 10 micrómetros. Y dado que la parte de oro de la microcapa puede ser tan delgada como aproximadamente 0,003-0,3 micrómetros, la cantidad de oro utilizada en el proceso es increíblemente baja. Pero para alcanzar una precisión visual del 93% en comparación con el baño de oro tradicional, Parker usa una capa de 3 micrómetros de los cuales 0,4 micrómetros son oro de 14K.

Marcas comunes de Parker:
Plata esterlina

Caballito de mar, oro de 24 quilates

Águila, oro de 22 quilates

Águila, oro de 18 quilates

Concha, oro de 14 quilates

Trébol, oro 9K

Estándar, por debajo de 9K oro, extranjero

Extranjero o desconocido

Plata 999 (de 1000) Multa

Plata de ley 925

Plata 800

Silver Standard, por debajo de 800

4-código de condición estándar para equipos de escritura

Este es un estándar para acortar la descripción de los bolígrafos, ya sea para uso personal o cuando se ofrecen bolígrafos a la venta. La clave de código se puede publicar junto con la lista de lápices, si se desea.
Los siguientes códigos deben usarse para establecer una condición general, en lugar de tomarse literalmente. Siempre se deben tener en cuenta los defectos, como arañazos, grietas, abolladuras, etc.


PM = Menta prístina. Sin tocar, sin llenar. Sin marcas ni manchas de ningún tipo. Color nítido. Nunca lleno. Esta condición rara vez existe. Perfecto estado absoluto.

M = Menta. Perfecta condicion. Sin marcas, manchas ni latones. Color nítido y acabado brillante en bolígrafos de plástico. Sin decoloración. Condiciones de trabajo. Estos bolígrafos se pueden llenar. Deben tenerse en cuenta las plumas no llenas. Los bolígrafos NOS deben estar en perfecto estado.

NM = Casi impecable. Un bolígrafo excelente, pero con partes de acabado más opaco o rayones superficiales casi invisibles. Sin bronce, prácticamente un bolígrafo Mint, pero con pequeños signos de uso.

VF o EX = Muy fino o excelente. Rayas superficiales visibles, pero no acentuadas, o partes de acabado opaco. Rasguños más acentuados donde la gorra va en el trasero y el cuerpo. De lo contrario, acabado completamente funcional y nítido sin bronceado.

FN = Bien. Rayas visibles en la superficie o acabado opaco. Signos de desgaste en la punta o ligera decoloración de la sección o alrededor de la palanca de llenado o el botón de llenado. Latón ligero o pequeña fisura en el labio. Signos claros de uso, pero aún mejor que el bolígrafo promedio.

VG = Muy bueno. Algunos rayones y acabado mate. Signos de uso diario en la punta o en el cuerpo. Latón, ligera decoloración total. Pequeñas grietas en los labios o en el cuerpo. Anillos de capuchón o anillos de cuerpo sueltos. Un bolígrafo usado en estado medio.

G = Bueno. Rayas, acabado opaco. Plumilla y cuerpo bien aprovechados. Latón, decoloración. Pequeñas grietas en los labios o el cuerpo. Tapón ligero o inadaptado de tapón ciego. Anillos de capuchón o anillos de cuerpo sueltos. Peor que la condición promedio, pero sigue siendo un bolígrafo completamente funcional.

F = Regular. Arañazos y marcas severos. Latón severo. Decoloración. Pequeñas grietas en los labios o el cuerpo. Desajuste de tapa o tapa ciega. Anillos de tapa o cuerpo sueltos. Sigue siendo funcional, o funcional con una ligera atención.

P = Pobre. Arañazos y marcas severos. Latón intenso y decoloración. Grietas severas o faltan partes esenciales. Falta la tapa, los aros de la carrocería o la palanca o están sueltos. Un bolígrafo de piezas no funcionales.


La historia del cuidado infantil en los EE. UU.

En la actualidad, en los Estados Unidos, la mayoría de las madres de niños en edad preescolar y escolar trabajan fuera del hogar. Las madres estadounidenses han inventado muchas formas de cuidar a sus hijos mientras trabajan. Los nativos americanos amarraban a los recién nacidos a tablas de cuna o los llevaban en cabestrillos tejidos. Las mujeres coloniales colocaban a los niños pequeños en taburetes de pie o en go-gins para evitar que se cayeran a la chimenea. Los pioneros de las llanuras del Medio Oeste depositaban a los bebés en cajas de madera atadas a las vigas de sus arados. Los agricultores de tierra del sur ataron sus fugitivos a estacas clavadas en el suelo en el borde de sus campos. Las esposas de los plantadores blancos del sur vieron a los niños y niñas afroamericanos jugar en el patio de la cocina mientras sus madres trabajaban en los campos de algodón. Las madres afroamericanas cantaban a los bebés blancos para dormir mientras sus propios pequeños se consolaban. Los trabajadores migrantes daban sombra a los bebés en carpas para bebés ubicadas en medio de los campos de remolacha. Los trabajadores de las fábricas de conservas ponen a los niños a trabajar junto a ellos ensartando frijoles y pelando guisantes. Los procesadores de mariscos enviaron a los niños pequeños a jugar en los muelles, advirtiéndoles que no se acercaran al agua.

Las madres han dejado a los niños solos en cunas y cunas, y los han encerrado en casas de vecindad y automóviles estacionados en lotes de fábricas. Los han llevado a padres, abuelos, co-madres, madres lúdicas, vecinas y extrañas. Los han enviado a jugar con madres pequeñas, hermanos a veces solo uno o dos años mayores. Los han inscrito en campamentos de verano y programas de recreación, los han llevado a granjas de bebés, los han entregado a orfanatos y hogares de acogida, y los han entregado por contrato. Los han llevado a guarderías familiares y los han dejado en casa con niñeras, niñeras y niñeras, algunas de ellas trabajadoras indocumentadas.

Las madres dejaron a sus bebés y niños pequeños en instalaciones preescolares de diversos tamaños y calidades vestidas con harapos, con las mejillas manchadas y el cabello fibroso, y los recogieron vestidos con batas almidonadas, con las mejillas rosadas y con olor a jabón. Los niños han sido rechazados porque tenían fiebre, secreción nasal o piojos. Las madres dejaron sus trabajos a la mitad del día para recoger a niños con infecciones de oído, varicela, rabietas. Se separaron de la descendencia que estaba aullando, lloriqueando, susurrando en un rincón con amigos, y luego los encontraron riendo, hambrientos, malhumorados, medio dormidos. Han salido sintiéndose culpables, tristes, ansiosos, temerosos, con el corazón en la boca, sin ninguna preocupación en el mundo.

Las madres han dejado a los bebés dormitando en carruajes estacionados fuera de los palacios de cine, en las guarderías de los grandes almacenes y en los servicios de estacionamiento en las boleras y los centros comerciales. Algunas madres han puesto a sus hijos al cuidado de otros y nunca regresan.

A fines del siglo XIX, entonces, el cuidado infantil estadounidense había llegado a consistir en una gama de disposiciones formales e informales que generalmente estaban asociadas con los pobres, las minorías y los inmigrantes y estaban estigmatizadas como caritativas y de custodia. Este patrón de prácticas e instituciones proporcionó una base débil para la construcción de servicios sociales del siglo XX. Sin embargo, a medida que los esfuerzos de reforma de las mujeres cobraron impulso durante la Era Progresista, el cuidado infantil se convirtió en un objetivo de reforma y modernización.

Los inicios de la reforma del cuidado infantil

Para llamar la atención sobre la necesidad de cuidado infantil y demostrar "métodos aprobados para criar niños desde la infancia", un grupo de prominentes filántropos de Nueva York dirigidos por Josephine Jewell Dodge instaló una guardería modelo en el Children's Building en 1893 World's Columbian Exposición en Chicago y luego fundó la Federación Nacional de Guarderías Diurnas (NFDN), la primera organización nacional dedicada a este tema, en 1898.

Mientras tanto, los reformadores comenzaron a formular otra solución al dilema de las madres pobres obligadas a trabajar fuera del hogar: pensiones para madres o viudas. En opinión de progresistas prominentes como Jane Addams, las guarderías solo agravaban las dificultades de las mujeres al alentarlas a aceptar trabajos arduos y mal remunerados mientras sus hijos sufrían de una atención y cuidados inadecuados. Por lo tanto, ella y sus colegas de Hull House, incluida Julia Lathrop, que se convertiría en la primera jefa de la Oficina de Niños de EE. UU. Cuando se fundó en 1912, pidieron una política para apoyar a las madres para que pudieran quedarse en casa con sus hijos. A diferencia del cuidado infantil, la idea de las pensiones de las madres rápidamente ganó apoyo popular porque no hizo nada para desafiar los roles de género convencionales. De hecho, algunos reformadores argumentaron que las madres, como los soldados, estaban realizando un “servicio a la nación” y, por lo tanto, merecían el apoyo del público cuando carecían de un sostén de familia masculino. Las pensiones "se extendieron como la pólvora" (citado en Theda Skocpol, & # 8220 Protecting Soldiers and Mothers: The Political Origins of Social Policy in the United States, & # 8221 Cambridge: Harvard UP, 1992, p. 424) como varias organizaciones nacionales importantes, incluyendo la Federación General de Clubes de Mujeres y el Congreso Nacional de Madres, organizaron una campaña legislativa de gran éxito estado por estado para tal beneficio. Para 1930, casi todos los estados de la unión habían aprobado algún tipo de ley de pensiones para madres o viudas, lo que la convirtió en la política de elección para abordar las necesidades de las madres de bajos ingresos y empujar el cuidado de los niños hacia las sombras de la caridad.

La Oficina de Niños y # 8217 de EE. UU.

Sin embargo, a pesar de la retórica, las pensiones de las madres no podían abordar plenamente los problemas de las madres pobres y de bajos ingresos, y muchas mujeres no tenían otra alternativa que salir a trabajar. En la mayoría de los estados, la financiación de las pensiones era inadecuada y muchas madres no eran elegibles debido a criterios muy restrictivos o prácticas administrativas sesgadas y estrictas. A las mujeres afroamericanas, en particular, se les negaban con frecuencia prestaciones, tanto en el Norte como en el Sur, debido a que, a diferencia de las mujeres blancas, estaban acostumbradas a trabajar por un salario y, por tanto, no se les debería animar a quedarse en casa para criar a sus hijos. Debido a que la cobertura de las pensiones era esporádica y dispersa, el empleo materno no solo persistió sino que aumentó, lo que se sumó a la demanda de cuidado infantil. Los filántropos tuvieron dificultades para satisfacer esta creciente necesidad utilizando únicamente fondos privados. Sin embargo, con las pensiones de las madres monopolizando la agenda de la política social, no tenían perspectivas de obtener financiación pública para las guarderías.

Este patrón continuó en la década de 1920, cuando la Oficina de la Infancia de EE. UU. (CB) realizó una serie de estudios sobre el trabajo materno infantil en la agricultura y la industria en todo el país. Aunque los investigadores encontraron muchos casos de lesiones, enfermedades e incluso muertes como resultado de situaciones en las que los bebés y los niños pequeños fueron abandonados o llevados a lugares de trabajo peligrosos, la CB se negó a abogar por el apoyo federal para el cuidado infantil en su lugar, trabajó para fortalecer a las madres pensiones para que más madres pudieran quedarse en casa. Los funcionarios de CB se vieron influenciados, en parte, por el pensamiento de expertos como el médico Douglas Thom, un defensor de la orientación infantil que argumentó que las madres asalariadas `` gastadas y cansadas '' que no tenían tiempo para el bienestar de sus hijos sofocaban su desarrollo. Al mismo tiempo, la reputación de las guarderías infantiles siguió decayendo a medida que los esfuerzos por mejorar su componente educativo decaían debido a la falta de fondos, y las guarderías, las favoritas de los educadores de la primera infancia de la era progresista, comenzaron a capturar la imaginación de la clase media.

El New Deal y el efecto # 8217s en el cuidado infantil

La Depresión y luego la Segunda Guerra Mundial tuvieron un impacto mixto en la suerte del cuidado infantil. En vísperas de la Gran Depresión, había menos de 300 guarderías en funcionamiento, en comparación con 800 guarderías, pero a medida que aumentaba el desempleo, las inscripciones en guarderías disminuyeron drásticamente y las donaciones caritativas también disminuyeron, lo que obligó a cerrar 200 guarderías entre 1931 y 1940. Mientras tanto, a instancias de destacados educadores de la primera infancia, la Works Progress Administration (WPA), una agencia clave del New Deal, estableció un programa de Escuelas de párvulos de emergencia (ENS). Estas escuelas, destinadas principalmente a ofrecer oportunidades de empleo a profesores desempleados, también se vieron como un medio para compensar las "discapacidades físicas y mentales" causadas por la recesión económica. Cerca de 3,000 escuelas, inscribiendo a más de 64,000 niños, se iniciaron entre 1933 y 1934 durante el próximo año, estas se consolidaron en 1,900 escuelas con una capacidad para aproximadamente 75,000 estudiantes. El programa cubrió cuarenta y tres estados y el Distrito de Columbia, Puerto Rico y las Islas Vírgenes. A diferencia de las escuelas de párvulos anteriores, que eran en gran parte privadas, cobraban cuotas y atendían a una clientela de clase media, estas escuelas gratuitas patrocinadas por el gobierno estaban abiertas a niños de todas las clases. Diseñadas como escuelas más que como instalaciones de cuidado infantil, las ENS solo estaban abiertas una parte del día y sus inscripciones estaban supuestamente restringidas a los hijos de los desempleados. Sin embargo, se convirtieron en una forma de cuidado infantil de facto para los padres empleados en varios proyectos de ayuda laboral de la WPA. A diferencia del de las guarderías, el componente educativo de la ENS estaba bien desarrollado debido al gran interés de los educadores de la primera infancia en el programa.

Organizaciones como la Asociación Nacional para la Educación Infantil, que estaba ansiosa por difundir las ideas de la pedagogía progresiva, incluso enviaron a sus propios miembros del personal para supervisar la formación de maestros y supervisar los planes de estudio. Sin embargo, los educadores se sintieron frustrados por las instalaciones y el equipo inadecuados y por las dificultades para convencer a los maestros con experiencia en el aula convencional de que adoptaran un enfoque menos estructurado para trabajar con niños pequeños. A fines de la década de 1930, la ENS también comenzó a sufrir una alta rotación de personal debido a que los maestros se fueron para tomar trabajos mejor pagados en las plantas de defensa. Entre 1936 y 1942, cerca de 1.000 escuelas se vieron obligadas a cerrar.

Cuidado infantil y Segunda Guerra Mundial

Aunque el acercamiento de la Segunda Guerra Mundial redujo la crisis del desempleo en los Estados Unidos, creó una crisis social cuando millones de mujeres, incluidas muchas madres, buscaron empleo en industrias relacionadas con la guerra. A pesar de la crítica escasez de mano de obra, al principio el gobierno federal se mostró reacio a reclutar madres de niños pequeños, alegando que "las madres que permanecen en casa están realizando un servicio patriótico esencial". Al obtener el apoyo de los trabajadores sociales, que se oponían al empleo materno por motivos psicológicos, los funcionarios del gobierno se demoraron en responder a la necesidad sin precedentes de cuidado infantil. En 1941, el Congreso aprobó la Ley Lanham, que tenía la intención de crear instalaciones comunitarias en "áreas de impacto de guerra", pero no fue hasta 1943 que esto se interpretó como autorización de apoyo para el cuidado infantil.

Mientras tanto, el Congreso asignó $ 6 millones para convertir las ENS restantes en instalaciones de cuidado infantil. La organización de nuevos servicios se empantanó en la competencia entre agencias a nivel federal y en la considerable burocracia involucrada cuando las comunidades locales solicitaron fondos federales.De acuerdo con las propias directrices del gobierno, se requería un puesto de cuidado infantil por cada diez trabajadoras de defensa; sin embargo, cuando la fuerza laboral femenina alcanzó su punto máximo de 19 millones en 1944, solo funcionaban 3.000 centros de cuidado infantil, con una capacidad para 130.000 niños, muy poco. de los 2 millones de lugares que teóricamente se necesitaban. La opinión pública tardó en aceptar la idea dual del empleo materno y el cuidado del niño. Los medios de comunicación populares informaron con frecuencia sobre la propagación de los "niños con llave" y sobre casos de niños dormidos encontrados encerrados en automóviles en los estacionamientos de la empresa mientras sus madres trabajaban en el turno de noche. Tales historias sirvieron para castigar a las madres asalariadas “egoístas” en lugar de señalar la necesidad de cuidado infantil. Al mismo tiempo, los expertos en niños advirtieron a los padres de que los niños en cuidado grupal podrían sufrir los efectos de la "privación materna" y los instaron a mantener entornos hogareños tranquilos para proteger a sus hijos de la agitación de la guerra.

El cuidado de niños que había allí hizo poco para disipar las preocupaciones del público. La mayoría de los centros, organizados apresuradamente y con poco personal, no alcanzaron los altos estándares que los educadores de la primera infancia habían tratado de establecer para la ENS. Una excepción fueron los Centros de Servicios para Niños establecidos por Kaiser Company en sus astilleros en Portland, Oregon. Diseñados por arquitectos y adaptados a las necesidades de los niños, ofrecían atención las veinticuatro horas del día (para acomodar a los trabajadores del turno de noche), un personal altamente capacitado, un plan de estudios planificado por expertos líderes en la primera infancia e incluso un servicio de comida cocinada para los cansados. padres que recogen a sus hijos después de un arduo turno. A pesar de sus deficiencias, el New Deal patrocinado por el gobierno federal y el cuidado infantil en tiempos de guerra marcaron un paso importante en la provisión social estadounidense. El Congreso, sin embargo, se mostró cauteloso a la hora de crear servicios permanentes y enfatizó repetidamente que el apoyo público se brindaría "solo por el tiempo que dure".

Poco después del Día V-J, se cortaron los fondos para la Ley Lanham, lo que obligó a cerrar la mayoría de los centros de cuidado infantil en uno o dos años. Pero la necesidad de cuidado infantil persistió, ya que el empleo materno, después de una caída inicial debido a los despidos de la posguerra, en realidad comenzó a aumentar. En todo el país, organizaciones nacionales como la Child Welfare League of America, junto con numerosos grupos locales, se manifestaron y presionaron para que el público continuara apoyando. Estos grupos no lograron persuadir al Congreso para que aprobara la Ley de Bienestar Materno Infantil de 1946, que habría continuado con la financiación federal para el cuidado infantil, pero sí consiguieron disposiciones públicas para el cuidado infantil en la ciudad de Nueva York, Filadelfia y Washington, D.C. y en California. Durante la Guerra de Corea, el Congreso aprobó un programa público de cuidado infantil, pero luego se negó a asignar fondos para ello.

Después de la Segunda Guerra Mundial

Finalmente, en 1954, el Congreso encontró un enfoque para el cuidado de niños con el que podía vivir: la deducción de impuestos por cuidado de niños. Esto permitió a las familias de ingresos bajos a moderados (las parejas podían ganar hasta $ 4,500 por año) deducir hasta $ 600 para el cuidado infantil de sus impuestos sobre la renta, siempre que los servicios fueran necesarios "para permitir al contribuyente tener un empleo remunerado". La deducción fiscal ofreció algún alivio financiero a ciertos grupos de padres, pero los reformadores no quedaron satisfechos, ya que tal medida no abordó cuestiones básicas como el suministro, la distribución, la asequibilidad y la calidad del cuidado infantil. En 1958, basándose en la experiencia que habían adquirido en el cabildeo a favor de las disposiciones de la posguerra, los activistas formaron una organización nacional dedicada exclusivamente al cuidado infantil, el Comité Interurbano de Guarderías Infantiles (ICC, que más tarde se convertiría en el Comité Nacional de Guarderías Infantiles). de niños). La organización estaba dirigida por Elinor Guggenheimer, una activista del cuidado infantil de la ciudad de Nueva York desde hace mucho tiempo Sadie Ginsberg, líder de la Asociación de Estudios Infantiles de América Cornelia Goldsmith, una funcionaria de la ciudad de Nueva York que había ayudado a establecer un sistema de licencias para el cuidado infantil en esa ciudad y Winifred Moore, especialista en cuidado infantil que había trabajado tanto en el gobierno como en el sector privado. A diferencia de su predecesora, la Federación Nacional de Guarderías Diurnas (que había sido absorbida por la Liga de Bienestar Infantil de América en 1942), la CPI creía que la caridad privada no podía proporcionar cuidado infantil adecuado por sí misma, la nueva organización buscaba trabajar en estrecha colaboración con agencias gubernamentales como la Oficina de Niños de EE. UU. y la Oficina de Mujeres de EE. UU. para obtener apoyo federal.

La CPI experimentó con una serie de fundamentos diferentes para el cuidado infantil, prefiriendo generalmente evitar las referencias al empleo materno en favor de enfatizar la necesidad de "salvaguardar el bienestar de los niños". En 1958 y 1959, la CPI ayudó a movilizar el apoyo de las bases para varios proyectos de ley de cuidado infantil presentados al Congreso por el senador Jacob Javits (republicano por Nueva York), pero fue en vano. La CPI logró convencer al CB y al BM de copatrocinar una Conferencia Nacional sobre la Guardería Infantil en Washington, DC, en noviembre de 1960. En esa conferencia, varios funcionarios gubernamentales señalaron la creciente demanda de mano de obra y lo que ahora parecía ser ser una tendencia irreversible hacia el empleo materno, pero muchos asistentes continuaron expresando ambivalencia sobre la colocación de niños pequeños en cuidado grupal. Guggenheimer, sin embargo, señaló que las madres trabajarían “tanto si se dispone de una buena atención como si no. Es el niño ”, enfatizó,“ el que sufre cuando la atención es deficiente ”. Guggenheimer no pidió directamente el apoyo del gobierno para el cuidado infantil, pero dejó en claro que las agencias privadas y voluntarias ya no podían soportar la carga.

El CB y el BM, bajo la dirección de los jefes designados por el presidente Dwight D. Eisenhower, se mostraron reacios a tomar la iniciativa en este tema, pero el presidente electo, John F. Kennedy, en un mensaje a la conferencia, expresó su conciencia de el problema, afirmando: "Creo que debemos tomar más medidas para fomentar los programas de cuidado diurno que protegerán a nuestros niños y les proporcionarán una base para una vida plena en los años posteriores". El mensaje de Kennedy, junto con declaraciones posteriores, implicaba que su administración buscaba un enfoque de base amplia para el cuidado infantil. En un informe de amplia circulación, la Comisión Presidencial de la Condición Jurídica y Social de la Mujer reconoció que el empleo materno se estaba convirtiendo en la norma y señaló que el cuidado de los niños no solo podía ayudar a las mujeres que decidieran trabajar fuera del hogar, sino que también servía como una bendición para el desarrollo de los niños y las niñas. ayudar a promover la integración social y racial. Pero la administración Kennedy no pudo reunir suficiente apoyo político para impulsar una política universal de cuidado infantil.

Ayuda a familias con hijos dependientes (AFDC)

En cambio, en dos proyectos de ley de reforma de la asistencia social, aprobados en 1962 y 1965, el Congreso vinculó el apoyo federal para el cuidado infantil a políticas diseñadas para alentar a las mujeres pobres y de bajos ingresos a ingresar a programas de capacitación o buscar empleo fuera del hogar. El objetivo era reducir el número de estadounidenses que recibían "asistencia social" (Ayuda para familias con hijos dependientes, o AFDC) y evitar que las mujeres se convirtieran en beneficiarias en primer lugar. De 1969 a 1971, una coalición de feministas, líderes sindicales, líderes de derechos civiles y defensores de la primera infancia trabajó con el Congreso para legislar la política universal de cuidado infantil, pero sus esfuerzos fracasaron cuando el presidente Nixon vetó la Ley de Desarrollo Infantil Integral de 1971. Como resultado, Durante las siguientes tres décadas, el apoyo federal directo para el cuidado de niños se limitó a políticas "dirigidas" a familias de bajos ingresos. Sin embargo, al mismo tiempo, el gobierno federal ofreció varios tipos de apoyo indirecto a las familias de clase media y alta en forma de incentivos fiscales para el cuidado infantil patrocinado por el empleador y varias formas de utilizar los costos del cuidado infantil para reducir los impuestos sobre la renta personal.

La era Reagan y la reforma del bienestar en la década de 1990

En la década de 1980, bajo la administración de Reagan, el saldo de los fondos federales para el cuidado infantil cambió, ya que los gastos para las familias de bajos ingresos se redujeron drásticamente mientras que los que beneficiaban a las familias de ingresos medios y altos casi se duplicaron. Tales medidas estimularon el crecimiento del cuidado infantil voluntario y con fines de lucro, gran parte del cual estaba fuera del alcance de las familias de bajos ingresos. Estas familias recibieron ayuda de la Subvención en bloque para el desarrollo y el cuidado infantil (CCDBG), aprobada en 1990, que asignó $ 825 millones a estados individuales. La Ley de Reconciliación de Responsabilidad Personal y Oportunidades Laborales de 1996 reemplazó a AFDC con asistencia pública por tiempo limitado junto con estrictos mandatos de empleo. Reconociendo la necesidad de un cuidado infantil ampliado para apoyar este plan de bienestar al trabajo, el Congreso combinó CCDBG, junto con varios programas más pequeños, en una sola subvención en bloque: el Fondo de Desarrollo y Cuidado Infantil.

Aunque se dispuso de más fondos públicos para el cuidado infantil que nunca, los problemas de suministro y calidad continúan limitando el acceso al cuidado infantil para los beneficiarios de la asistencia social que ahora se ven obligados a aceptar un empleo, y las familias de ingresos moderados deben hacer frente a los costos cada vez mayores para los niños. cuidado. Para todas las familias, la calidad del cuidado infantil se ve comprometida por la alta tasa de rotación entre los empleados en el campo, en sí misma como resultado de los bajos salarios y las malas prestaciones. Debido a su larga historia y estructura actual, el sistema de cuidado infantil estadounidense está dividido por clases, lo que dificulta que los padres se unan y cabildeen para obtener mejores servicios y una mayor financiación pública para el cuidado infantil para todos los niños. Cuando se trata de provisiones públicas para niños y familias, Estados Unidos se compara pobremente con otras naciones industriales avanzadas como Francia, Suecia y Dinamarca, que no solo ofrecen cuidado gratuito o subsidiado a niños mayores de tres años, sino que también brindan licencias pagadas por maternidad o paternidad. . A diferencia de Estados Unidos, estos países utilizan el cuidado infantil no como palanca de una dura política de empleo obligatorio hacia las madres de bajos ingresos] sino como un medio para ayudar a los padres de todas las clases] a conciliar las demandas del trabajo y la vida familiar.

Para más información, consulte el libro del Dr. Michel # 8217, Niños & # 8217s Intereses / Madres & # 8217 Derechos: The Shaping of America & # 8217s Child Care Policy.

Cómo citar este artículo (formato APA): Michel, S. (2011). La historia del cuidado infantil en los EE. UU. Proyecto de Historia del Bienestar Social. Obtenido de http://socialwelfare.library.vcu.edu/programs/child-care-the-american-history/

19 respuestas a & ldquoThe History of Child Care in the U.S. & rdquo

Este artículo me hizo pensar realmente en lo lejos que ha llegado el cuidado infantil en Estados Unidos. Si bien ha avanzado enormemente, este artículo te hace pasar por alto todo y buscar respuestas sobre por qué el cuidado de niños era algo tan cuestionable en ese entonces. Está claro que estas madres, de todos modos, la mayoría de ellas realmente no tuvieron más remedio que trabajar para proporcionar y el hecho de que fue cuestionado y menospreciado está más allá de las palabras. De todos modos, dicho esto, gracias a todas las personas increíbles que todavía lucharon por todos estos niños y sus madres para hacer sus vidas un poco menos estresantes.

Es alentador saber que no importa cuán bajo sea el salario o cuán difíciles sean los desafíos, siempre ha habido líderes educativos que han brindado un excelente cuidado de la primera infancia que todos los niños merecen.


Ver el vídeo: Ateneo interdisciplinario SEMCO -REUMATOLOGIA