Esto significa que es relevante quién decide qué se cuenta como dato y qué no, así como también la manera en que este debe ser interpretado, cómo se mide y qué indicadores se usan. Si se pierde de vista esto, se crea una mala interpretación potencial o, peor aún, una manipulación que puede fallar en proteger a las poblaciones vulnerables (Sarfaty, 2018, p. 849). En suma, aunque exista la percepción de que estos datos masivos están siendo subutilizados y no se está obteniendo el beneficio que podrían ofrecer47, resulta relevante también que se reflexione sobre sus riesgos y limitaciones, para así estimular una investigación cien tífica con una cultura ética del uso de la información personal de sujetos que pueden ser titulares de derechos48.
Aprendizaje automático, inteligencia artificial y estadística clásica son las disciplinas que conforman este conglomerado analítico que es tan o más importante que los datos. Asimismo, disciplinas aparentemente lejanas, como la comunicación visual, el diseño y la comunicación, también cumplen un rol crucial en esta nueva visión interactiva que plantea el fenómeno de los datos masivos. Finalmente, el conocimiento específico de todas las disciplinas que convocan al estudio sistemático de datos -desde las más duras como la física, hasta las humanísticas como la lingüística- https://www.elbravo.mx/el-curso-de-ciencia-de-datos-que-te-prepara-para-un-trabajo-en-la-industria-de-ti/ cumplen también un papel fundamental. El concepto “ciencia de datos” es tanto una forma ligera y redundante de referir al análisis de datos, como un indicio de que es relevante una nueva denominación para un fenómeno esencialmente distinto, que requiere una auténtica visión panóptica y altamente interactiva de procesos otrora desintegrados. También nos remite a la necesidad de fortalecer las estrategias de triangulación y combinación metodológica, ante la variedad de métodos, técnicas, herramientas y fuentes de análisis que potencialmente pueden ser empleadas.
Por qué necesitamos un Alto Comisionado para impulsar las tecnologías estratégicas profundas
La Unidad Militar de Emergencias (UME) ha informado en un comunicado en X, antes Twitter, que da por finalizadas las misiones asignadas por la dirección de la emergencia en el incendio de Campanar, y que las unidades desplazadas a Valencia han iniciado un repliegue escalonado a sus respectivas bases de origen. Además, ha apuntado a que el revestimiento exterior está formado por un panel “composite” formado por dos láminas de aluminio y un material de relleno para dar rigidez. “La Asociación de la Industria del Poliuretano Rígido se encuentra a disposición de las autoridades para acreditar pericialmente la no presencia de poliuretano en la fachada ventilada de este edificio”, ha añadido. La delegada del Gobierno en la Comunidad Valenciana, Pilar Bernabé, ha confirmado que el número de desaparecidos corresponde con la cifra de cadáveres que la policía ha encontrado en el edificio, pero ha señalado que los datos “siempre van a ser provisionales hasta que se den por concluidas todas las labores de inspección”.
Como cabe esperar, parte importante de las aproximaciones y técnicas antes señaladas no se han desarrollado necesariamente en el campo de las ciencias sociales. Más bien, provienen de múltiples disciplinas tales como las matemáticas, la programación e informática, y más recientemente la llamada “ciencia de datos”. Por eso, la comprensión de la relación entre redes sociales y política utilizando estas herramientas implica un proceso de aprendizaje, en el que las técnicas se importan a otro campo científico y se ponen al servicio de otras agendas de investigación, preguntas y teorías. En ciencia política, por ejemplo, las preguntas centrales que han ocupado a los observadores son de variada índole. Por ejemplo, ¿cómo cambia la comunicación política y cuál es su relación con antiguas formas de comunicación de masas?
Los centros de datos se trasladan al espacio para mitigar el consumo energético y la contaminación
En otro orden, el aprendizaje profundo se refiere a la forma en que la máquina va obteniendo la “respues ta correcta”. El procedimiento se va realizando por ca pas o nodos, de menor a mayor complejidad, el cual se puede realizar con sistemas de aprendizaje supervisa dos o no supervisados. Este tipo de aprendizaje se ha usado en la clasificación de imágenes, por ejemplo, en el estudio de cálculos renales usando un conjunto de datos con imágenes de cálculos en color e infrarrojo23. De esta forma se puede afirmar que la “datificación” en el ámbito de la salud es una tradición muy antigua en cambio, la digitalización ha llegado de la mano con la incorporación de las TI en la atención de salud. Éstas han permitido, entre otros, la generación del Registro Electrónico de datos de Salud (RES o en inglés EHR) o Ficha Clínica Electrónica (FCE), los cuales compilan las historias clínicas de una persona5 y que pueden ser consultados por personal de salud6.
Finalmente, en Brasil, la Universidad Abierta de Brasil y la Universidad Estatal de Ceará (UAB – UECE), desarrollaron un modelo predictivo que analiza la interacción entre tutores y estudiantes, logrando identificar once acciones desarrolladas por los tutores, de las cuales siete aumentaban la probabilidad de aprobación de los estudiantes y cuatro que debían ser evitadas pues la reducía (Oliveira et al., 2019). En los trabajos recopilados de big data, lo habitual es trabajar con fuentes secundarias, conectando frecuentemente con servidores de instituciones públicas y privadas para usar la información que proveen (por ejemplo, censos), o usando la información disponible a gran escala, geolocalizada en muchas ocasiones. Otras veces la información es proporcionada por algún tipo de proveedor, como es el caso de la telefónica (Bajardi et al., 2015; Yuan & Zhu, 2016; Kim, Park & Lee, 2018). En cambio, comparado con la investigación clásica en estudios de Ciencias Sociales, el trabajo que se viene realizando actualmente en el campo de Twitter comprende necesariamente estrategias para la extracción o minería de datos.
Bootcamp de Data Science y Machine Learning
Posteriormente se trabaja en la construcción del modelo con un conjunto de datos distribuidos en capas que deben “entrenarse y compararse” para, finalmente, establecer una solución. No solo a nivel de empresas y negocio, sino que en cualquier profesión se hace necesaria ya la presencia de un experto en estas disciplinas. La policía de Vancouver, en Canadá, por ejemplo, trabaja con el machine learning y las soluciones geoespaciales de Esri curso de ciencia de datos para conocer los índices de criminalidad y profundizar en ellos. Gracias a estos datos, capaces de predecir situaciones delictivas, han conseguido una precisión del 80 % en el modelo y una reducción del 27 % de la criminalidad en las zonas estudiadas. El ‘chief artificial intelligence officer’ (CAIO) estará al mando de estas soluciones, nacidas para tratar problemas complejos para los que habitualmente no hay información disponible.