构建一套贯穿 Dart API 与 React 应用的全链路追踪与结构化日志系统


一个前端同事发来消息:“线上有个用户反馈,点击‘生成报告’按钮后,页面卡了很久,最后弹出一个‘网络错误’的提示,能帮忙看一下吗?”

我打开 Kibana,输入用户的 ID,看到几条来自前端应用的错误日志,内容是 API request failed with status 500。然后切换到后端 Dart 服务的日志索引,在差不多同一时间段,我看到海量的日志,里面夹杂着几条 NullPointerException 和数据库超时。问题在于,我无法确定哪一条后端错误是由这个特定用户的前端操作触发的。前端日志和后端日志是两个孤立的世界,我们不得不在时间戳和模糊的用户行为信息中玩猜谜游戏。

在真实项目中,这种场景是定位线上问题的巨大障碍。解决这个问题的唯一务实方法是建立一条贯穿始终的链路,将用户的单次操作在系统中的所有足迹串联起来。这就是我们需要一个全局唯一的“关联ID”(Correlation ID)的原因。

初步构想:关联ID是核心枢纽

我们的目标很简单:

  1. 对于用户在前端发起的每一个业务请求,生成一个唯一的 X-Correlation-ID
  2. 这个 ID 必须随着 API 请求的 HTTP Header 发送到后端。
  3. 后端 Dart 服务接收到这个 ID,并将其注入到本次请求生命周期内的所有日志中。
  4. 所有日志(无论来自前端还是后端)都以结构化的 JSON 格式输出,并被 ELK Stack 收集。
  5. 最终,我们可以在 Kibana 中用一个 correlation_id 筛选出从用户点击到数据库查询再到最终响应的完整调用链。

技术栈选型是既定的:后端是基于 shelf 框架的 Dart 服务,因为它轻量且中间件模型清晰;前端是 React;日志系统是成熟的 ELK Stack。一个不那么明显但至关重要的部分是测试:我们必须保证这个链路的“胶水”代码是可靠的,因此 React Testing Library 将被用来验证前端的 Header 注入逻辑。

步骤一:Dart 后端的中间件设计与实现

后端是整个链路的核心。我们需要一个 shelf 中间件来处理 X-Correlation-ID。它的逻辑必须健壮:

  • 如果请求头中存在 X-Correlation-ID,就使用它。
  • 如果不存在,就主动生成一个新的 UUID v4,并将其附加到响应头中,以便前端可以捕获。
  • 最关键的是,需要将这个 ID 存储在某个地方,让整个请求处理流程中的任何代码都能访问到它,而无需层层传递参数。

在 Dart 中,处理这种请求级别的上下文传递,Zone 是一个强大的工具。我们可以创建一个 Zone,并在其 zoneValues 中存入关联 ID。

// file: lib/middleware/correlation_id_middleware.dart

import 'dart:async';
import 'package:shelf/shelf.dart';
import 'package:uuid/uuid.dart';

const String correlationIdHeader = 'X-Correlation-ID';
const String correlationIdZoneKey = 'correlationId';

/// 创建一个处理关联ID的 Shelf 中间件
///
/// 它的职责:
/// 1. 从请求头中检查 'X-Correlation-ID'。
/// 2. 如果不存在,生成一个新的 UUID v4 作为关联ID。
/// 3. 使用 `Zone.fork` 创建一个新的执行区域,并将关联ID存入 `zoneValues`。
///    这样,在请求处理的后续流程中,可以通过 `Zone.current[correlationIdZoneKey]` 安全地获取到该ID。
/// 4. 将关联ID附加到响应头中,以便客户端(如前端应用)可以获取。
Middleware correlationIdMiddleware() {
  const uuid = Uuid();

  return (Handler innerHandler) {
    return (Request request) {
      // 尝试从请求头中获取已有的 correlationId
      final idFromHeader = request.headers[correlationIdHeader];
      
      // 如果 header 中没有,就生成一个新的
      final correlationId = idFromHeader ?? uuid.v4();

      // 这是关键部分:创建一个新的 Zone,并将 correlationId 放入 zoneValues
      // 之后所有在这个 Future 链中执行的代码都将在这个 Zone 中运行
      return runZoned(
        () async {
          final response = await innerHandler(request);
          
          // 将最终的 correlationId 添加到响应头中
          return response.change(
            headers: {
              ...response.headers,
              correlationIdHeader: correlationId,
            },
          );
        },
        zoneValues: {
          correlationIdZoneKey: correlationId,
        },
      );
    };
  };
}

这个中间件的设计是幂等的,并且遵循了职责分离原则。它只关心 ID 的生成和上下文注入,不关心业务逻辑。

步骤二:实现上下文感知的结构化日志

有了能在任何地方访问到的 correlationId,下一步就是改造我们的日志系统。一个常见的错误是业务代码中手动拼接日志字符串,这会导致格式不统一且难以解析。我们必须使用结构化日志,输出 JSON。

我们将使用 Dart 官方的 logging 包,并为其创建一个自定义的 JSON 格式化器。这个格式化器会自动从 Zone 中提取 correlationId 并将其添加到每条日志记录中。

// file: lib/utils/structured_logger.dart

import 'dart:convert';
import 'dart:io';

import 'package:logging/logging.dart';
import 'package:my_dart_api/middleware/correlation_id_middleware.dart';

/// 一个自定义的日志记录器,它将日志格式化为可被 ELK 解析的 JSON 字符串。
class StructuredLogger {
  static final _logger = Logger('MyDartAPI');
  static bool _isInitialized = false;

  /// 初始化日志系统
  ///
  /// - 设置日志级别。
  /// - 监听日志记录,并将其转换为 JSON 格式输出到 stdout。
  /// - 确保这个初始化只执行一次。
  static void initialize() {
    if (_isInitialized) {
      return;
    }

    Logger.root.level = Level.ALL; // 在生产环境中应配置为 Level.INFO 或更高

    Logger.root.onRecord.listen((record) {
      // 从当前 Zone 获取 correlationId
      final correlationId = Zone.current[correlationIdZoneKey] as String?;

      final logData = {
        '@timestamp': record.time.toUtc().toIso8601String(),
        'level': record.level.name,
        'logger_name': record.loggerName,
        'message': record.message,
        'correlation_id': correlationId ?? 'unknown', // 保证字段始终存在
        'pid': pid,
      };

      if (record.error != null) {
        logData['error'] = record.error.toString();
      }
      if (record.stackTrace != null) {
        logData['stack_trace'] = record.stackTrace.toString();
      }

      // 输出为单行 JSON
      stdout.writeln(jsonEncode(logData));
    });

    _isInitialized = true;
    _logger.info('Structured logger initialized.');
  }

  // 提供静态方法供业务代码调用
  static void info(String message, [Object? error, StackTrace? stackTrace]) {
    _logger.info(message, error, stackTrace);
  }

  static void warning(String message, [Object? error, StackTrace? stackTrace]) {
    _logger.warning(message, error, stackTrace);
  }

  static void severe(String message, [Object? error, StackTrace? stackTrace]) {
    _logger.severe(message, error, stackTrace);
  }
}

// 在 main.dart 中使用
void main() async {
  // 应用程序启动时必须先初始化日志
  StructuredLogger.initialize();

  final handler = const Pipeline()
      .addMiddleware(logRequests()) // shelf 自带的日志中间件
      .addMiddleware(correlationIdMiddleware()) // 我们的核心中间件
      .addHandler(_serviceRouter);

  // ... server startup logic ...
}

// 在某个业务逻辑 service 中
class ReportService {
  void generateReport(String userId) {
    StructuredLogger.info('Starting report generation for user $userId.');
    try {
      // ... 复杂的业务逻辑 ...
      if (someCondition) {
        throw Exception('Data source is unavailable.');
      }
      StructuredLogger.info('Report for user $userId generated successfully.');
    } catch (e, s) {
      // 记录错误时,附带异常和堆栈信息
      StructuredLogger.severe('Failed to generate report for user $userId.', e, s);
      rethrow;
    }
  }
}

现在,当 ReportService 中的代码被调用时,只要它是在 correlationIdMiddleware 创建的 Zone 内执行的,StructuredLogger 就能自动获取到正确的 correlation_id

产生的日志输出会是这样的单行 JSON:

{"@timestamp":"2023-10-27T10:45:12.123Z","level":"INFO","logger_name":"MyDartAPI.ReportService","message":"Starting report generation for user user-123.","correlation_id":"a7b1c3d4-e5f6-4a9b-8c7d-6e5f4a3b2c1d","pid":4567}
{"@timestamp":"2023-10-27T10:45:13.456Z","level":"SEVERE","logger_name":"MyDartAPI.ReportService","message":"Failed to generate report for user user-123.","correlation_id":"a7b1c3d4-e5f6-4a9b-8c7d-6e5f4a3b2c1d","pid":4567,"error":"Exception: Data source is unavailable.","stack_trace":"#0 ReportService.generateReport (package:my_dart_api/services/report_service.dart:15:7)..."}

这种格式对于后续的 ELK 处理至关重要。

步骤三:配置 ELK Stack 以消费结构化日志

我们假设 Dart 应用的日志通过 stdout 输出,并被 Docker 或 systemd 重定向到一个日志文件中(例如 /var/log/my-dart-api/app.log)。接下来,我们需要配置 Filebeat 来收集这些日志,并配置 Logstash 来解析它们。

Filebeat 配置 (filebeat.yml):

filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/my-dart-api/*.log
  # 这里的坑在于:我们的 JSON 日志是单行的,但堆栈信息可能会被误认为多行。
  # 通过 `json.keys_under_root` 和 `json.add_error_key` 确保 filebeat 正确解析 JSON。
  json.keys_under_root: true
  json.add_error_key: true
  json.message_key: message

  # 添加自定义字段,用于在 ELK 中区分日志来源
  fields:
    service_name: my-dart-api
    service_env: production
  fields_under_root: true

output.logstash:
  hosts: ["logstash.internal:5044"]

Logstash 管道配置 (pipeline.conf):

Logstash 的角色是接收来自 Filebeat 的数据,执行一些清洗和转换,然后发送到 Elasticsearch。由于 Filebeat 已经帮我们解析了 JSON,Logstash 的配置可以非常简单。

# file: /etc/logstash/conf.d/01-dart-api-pipeline.conf

input {
  beats {
    port => 5044
  }
}

filter {
  # 确保 @timestamp 字段被正确解析和使用
  date {
    match => [ "@timestamp", "ISO8601" ]
    target => "@timestamp"
  }

  # 如果日志级别是 SEVERE 或 WARNING,添加一个 tag,方便在 Kibana 中筛选和告警
  if [level] in ["SEVERE", "ERROR"] {
    mutate {
      add_tag => ["error_log"]
    }
  }

  # 可以添加更多的数据充实逻辑,例如通过 IP 地址查询地理位置等
}

output {
  elasticsearch {
    hosts => ["http://elasticsearch.internal:9200"]
    # 使用基于日期的索引模式,便于管理和归档
    index => "%{[fields][service_name]}-%{[fields][service_env]}-%{+YYYY.MM.dd}"
    user => "elastic"
    password => "${ELASTIC_PASSWORD}"
  }
}

至此,后端的日志链路已经打通。任何写入 /var/log/my-dart-api/app.log 的 JSON 日志都会被高效地采集、处理并存储到 Elasticsearch 中。

步骤四:React 前端的改造与测试

现在轮到前端了。我们需要在每次发起 API 请求时,都在 Header 中附加上 X-Correlation-ID。使用 axios 的拦截器是实现这一点的最佳实践。

// file: src/api/axiosClient.js

import axios from 'axios';
import { v4 as uuidv4 } from 'uuid';

const axiosClient = axios.create({
  baseURL: process.env.REACT_APP_API_URL,
  headers: {
    'Content-Type': 'application/json',
  },
});

// 请求拦截器
axiosClient.interceptors.request.use(
  (config) => {
    // 关键逻辑:为每个请求注入 X-Correlation-ID
    // 真实项目中,我们可能会在一个用户会话或页面生命周期中复用同一个 ID,
    // 但为简化模型,这里为每个请求生成新的 ID。
    config.headers['X-Correlation-ID'] = uuidv4();
    return config;
  },
  (error) => {
    // 可以在这里添加前端的请求错误日志
    console.error('API Request Error:', {
      message: error.message,
      url: error.config.url,
      method: error.config.method,
      // 如果实现了前端日志上报,这里应将错误发送到日志服务
    });
    return Promise.reject(error);
  }
);

export default axiosClient;

现在,前端所有使用 axiosClient 的请求都会自动携带关联 ID。但是,我们如何确保这个逻辑是正确的,并且不会在未来的重构中被意外破坏?答案是测试。

React Testing Library 强调测试用户的真实行为,而不是实现细节。我们的测试用例应该模拟用户点击按钮,然后验证一个带有正确 Header 的网络请求被发起了。我们将使用 msw (Mock Service Worker) 来拦截网络请求,以便进行断言。

// file: src/components/ReportGenerator.test.js

import React from 'react';
import { render, screen, fireEvent, waitFor } from '@testing-library/react';
import '@testing-library/jest-dom';
import { rest } from 'msw';
import { setupServer } from 'msw/node';
import ReportGenerator from './ReportGenerator';

// 1. 设置 MSW 服务器来拦截 API 调用
const server = setupServer(
  rest.post('/api/reports', (req, res, ctx) => {
    // 这是测试的核心:检查请求头
    const correlationId = req.headers.get('X-Correlation-ID');
    
    // 如果 header 不存在或格式不正确(这里简单检查存在性),返回错误
    if (!correlationId) {
      return res(
        ctx.status(400),
        ctx.json({ message: 'Missing X-Correlation-ID header' })
      );
    }

    return res(ctx.status(201), ctx.json({ reportId: 'report-abc' }));
  })
);

// 2. 在所有测试之前启动服务器,之后关闭
beforeAll(() => server.listen());
afterEach(() => server.resetHandlers());
afterAll(() => server.close());

describe('ReportGenerator', () => {
  it('should send X-Correlation-ID header when generating a report', async () => {
    render(<ReportGenerator />);

    // 模拟用户点击按钮
    const generateButton = screen.getByRole('button', { name: /生成报告/i });
    fireEvent.click(generateButton);
    
    // 等待异步操作完成,并验证 UI 状态变化
    // 我们期望看到成功消息
    await waitFor(() => {
      expect(screen.getByText(/报告已成功创建/i)).toBeInTheDocument();
    });

    // 这个测试用例通过本身就间接证明了 header 是被正确发送的,
    // 因为 msw 的 handler 只有在 header 正确时才会返回 201 状态码。
    // 这比直接 spy axios 实现细节要健壮得多。
  });

  it('should show an error if API call fails', async () => {
    // 我们可以覆盖 handler 来测试失败场景
    server.use(
      rest.post('/api/reports', (req, res, ctx) => {
        return res(ctx.status(500), ctx.json({ message: 'Internal Server Error' }));
      })
    );

    render(<ReportGenerator />);
    fireEvent.click(screen.getByRole('button', { name: /生成报告/i }));
    
    await waitFor(() => {
      expect(screen.getByText(/生成失败/i)).toBeInTheDocument();
    });
  });
});

这个测试用例完美地体现了“可观测性驱动开发”的思想。我们不仅测试了功能,还测试了保障系统可观测性的关键机制。这种测试投入在长期维护中会得到丰厚的回报。

最终成果:一条完整的调用链

现在,当最初那个问题再次发生时,我们的排查流程将完全不同:

  1. 前端日志系统(例如 Sentry 或自研方案)捕获到错误,并记录下与之关联的 correlation_id:“a7b1c3d4-e5f6-4a9b-8c7d-6e5f4a3b2c1d”。
  2. 运维或开发人员将这个 ID 复制到 Kibana 的搜索框中,查询 correlation_id: "a7b1c3d4-e5f6-4a9b-8c7d-6e5f4a3b2c1d"
  3. Kibana 将返回一个按时间排序的日志流,清晰地展示了整个过程:
    • [INFO] [my-dart-api] Request received: POST /api/reports
    • [INFO] [my-dart-api] Starting report generation for user user-123.
    • [INFO] [my-dart-api] Querying data from database...
    • [SEVERE] [my-dart-api] Database query timed out after 30 seconds.
    • [SEVERE] [my-dart-api] Failed to generate report for user user-123. Error: TimeoutException...
    • [INFO] [my-dart-api] Request finished with status 500.

问题的根源——数据库超时——一目了然。不再需要猜测。

整个数据流可以用下面的图来概括:

sequenceDiagram
    participant User
    participant ReactApp as React App
    participant Axios as Axios Interceptor
    participant DartAPI as Dart API (shelf)
    participant Logger as Structured Logger
    participant ELK as ELK Stack

    User->>ReactApp: 点击 "生成报告"
    ReactApp->>Axios: 发起 POST /api/reports 请求
    Axios->>Axios: 生成 Correlation ID (e.g., xyz-123)
    Axios->>DartAPI: 发送请求 (Header: X-Correlation-ID: xyz-123)
    
    DartAPI->>DartAPI: CorrelationIdMiddleware 捕获 ID
    DartAPI->>DartAPI: 将 ID 存入 Zone
    
    DartAPI->>Logger: 记录 "Request received"
    Logger->>ELK: 发送日志 (correlation_id: xyz-123)
    
    DartAPI->>DartAPI: 执行业务逻辑
    DartAPI->>Logger: 记录 "Starting report generation"
    Logger->>ELK: 发送日志 (correlation_id: xyz-123)

    DartAPI->>DartAPI: 发生内部错误
    DartAPI->>Logger: 记录 "Database query timed out" (SEVERE)
    Logger->>ELK: 发送日志 (correlation_id: xyz-123)

    DartAPI-->>Axios: 返回 500 Internal Server Error
    Axios-->>ReactApp: 返回错误
    ReactApp-->>User: 显示 "网络错误"

局限性与未来的演进路径

这套方案有效地解决了一个单体后端服务与前端之间的链路追踪问题,但在更复杂的系统中,它也存在局限性。

首先,它依赖于手动的日志埋点。如果开发者忘记在关键路径上记录日志,调用链就会出现断点。其次,在微服务架构中,X-Correlation-ID 需要在服务间的每一次调用(无论是 HTTP 还是消息队列)中被手动传递,这增加了出错的风险和心智负担。

一个更彻底的解决方案是引入分布式追踪系统,如 OpenTelemetry。OpenTelemetry 不仅能传递关联 ID(在它的术语中称为 Trace ID 和 Span ID),还能自动地(通过字节码增强或 SDK)捕获每个操作的耗时、元数据等,形成详细的分布式调用链路图。我们目前实现的基于日志的关联 ID,可以看作是迈向完整分布式追踪的第一步,它用较低的成本解决了最痛的问题,为未来平滑过渡到 OpenTelemetry 体系打下了坚实的基础。


  目录